Así funciona una central nuclear

Energía nuclear de fisión.


La película El Síndrome de China (1979) sigue conteniendo una de las mejores explicaciones sencillas del funcionamiento de una central nuclear.
Sin embargo, hoy intentaremos profundizar un poquito más.

Pues… que me he dado cuenta de que aquí hemos hablado con detalle sobre armas nucleares, termonucleares e incluso del juicio final. Y sobre las perspectivas de la fisión y de la fusión, sobre los héroes y mitos de Chernóbyl, sobre la central nuclear más grande del mundo, mil cosas… pretendo incluso elaborar un todavía futuro post sobre lo sucedido de verdad en Chernóbyl (ya te dije, resulta más difícil distinguir la paja del grano de lo que parece, y ese quiero que sea riguroso y documentado hasta el extremo)… pero aún no he explicado cómo funciona realmente una central nuclear y el ciclo de su combustible. Yo, que soy así de chulo. :-/

La central nuclear de Cofrentes vista desde el pueblo. Foto de la Pizarra de Yuri.

La central nuclear de Cofrentes (Valencia) vista desde el pueblo. Contiene bajo la cúpula un reactor de agua en ebullición (BWR) que produce 1.092 MWe. (Clic para ampliar)

Producción, demanda y balance de importación - exportación de la Red Eléctrica de España

Producción, demanda y balance importador/exportador de la Red Eléctrica de España, 1995-2010. Datos tomados de los informes mensuales en www.ree.es/operacion/balancediario.asp (Clic para ampliar)

Seguramente sabrás, y si no ya te lo cuento yo, que una central nuclear es una fábrica de electricidad. Cualquier día típico en España, las centrales nucleares producen uno de cada cinco vatios que consumimos para mover nuestras vidas (¿te imaginas un mundo sin electricidad?). Esta cifra del 19%, que antes era mayor (hace quince años era del 35%), es ahora similar a la de los Estados Unidos o el Reino Unido. Por el momento, vamos servidos: España es, desde hace más de un lustro, exportador neto de electricidad (sí, exportador; y sí, desde mucho antes de la crisis: si te han dicho otra cosa, te han mentido. Observa que en los informes de la REE el saldo importador aparece en positivo y el exportador en negativo).

Una central nuclear es, además, un tipo particular de central térmica. Es decir: la energía eléctrica se produce generando calor. En las centrales térmicas corrientes se utilizan grandes quemadores a carbón, gas natural o derivados del petróleo como el gasoil, bien sea en ciclo convencional o en ciclo combinado, con o sin cogeneración. En todo caso se trata, básicamente, de calentar agua en unas calderas hasta que ésta se convierte en vapor con fuerza suficiente como para hacer girar una turbina según los ciclos de Carnot y Rankine. El eje rotativo de la turbina impulsa a su vez el de uno o varios alternadores, que son los que producen la energía eléctrica en sí. Cuando hablamos de estos grandes generadores instalados en las centrales eléctricas y conectados a potentes turbinas de vapor, se suelen denominar turboalternadores.

La pura verdad es que no resulta un método muy eficiente: se pierde aproximadamente entre una tercera parte y las dos terceras partes de la energía térmica producida (y por tanto del combustible consumido) debido a las ineficiencias acumulativas de estos mecanismos y a las limitaciones teóricas del ciclo de Carnot. Toda central térmica del presente, nuclear o convencional, necesita producir entre dos y tres vatios térmicos para generar un vatio eléctrico. Esto es: uno o dos de cada tres kilos o litros de su valioso combustible –petróleo, gas natural, carbón, uranio– se malgastan en estropear cosas caras dentro de la instalación y ocasionar contaminación térmica en el exterior. Típicamente, una central nuclear capaz de generar mil megavatios eléctricos debe producir tres mil térmicos. Es lo que hay. Si se te ocurre alguna manera de mejorarlo, no dejes de comentármelo, que tú y yo tenemos que hablar de negocios. :-D

Así pues, la clave de toda central térmica consiste en calentar agua para producir vapor que haga girar unas turbinas y con ellas unos alternadores eléctricos. En el caso particular de una central nuclear, este calor se origina por medios… eso, nucleares. :-) Específicamente, hoy por hoy, mediante la fisión de átomos pesados e inestables como algunos isótopos del uranio. Veámoslo.


Cualquier cosa capaz de hacer girar el eje de un alternador producirá energía eléctrica.
Arriba, un alternador manual;
abajo, el eje de un gigantesco generador hidroeléctrico en la Presa Hoover, Estados Unidos.

Fisión nuclear y reacción en cadena.

Ya te conté un poquito de cómo va esto de la fisión y la reacción en cadena en Así funciona un arma nuclear. Vamos a repasarlo por encima, centrándonos en esta aplicación civil. Como sabes, existen algunas sustancias en la naturaleza que son radioactivas. ¿Qué quiere decir esto? Bueno, su propio nombre nos da una pista: radio-activas. O sea: no son totalmente inertes desde el punto de vista físico, como cualquier otro piedro, líquido o gas. Por el contrario, los núcleos de sus átomos presentan una actividad física que se expresa en forma de radiación; para ser más exactos, en forma de radiaciones ionizantes. Estas radiaciones son más energéticas y pueden causar más alteraciones en la materia que las no ionizantes, como las que emite una televisión de tubo, una antena de radio o un teléfono móvil.

¿Por qué se produce esta radioactividad? Para contestar a eso hay que responder primero a otra pregunta: ¿por qué algunos núcleos atómicos no son estables? Esto se debe a que la configuración de protones y neutrones en su núcleo es anómala y tiende a un estado de menor energía. Veámoslo con un ejemplo, que ya introdujimos en Así funciona un arma termonuclear. La mayor parte del carbono que nos compone (a nosotros y a otro buen montón de cosas en este universo) es carbono-12 (12C). Se llama así porque tiene en su núcleo seis protones y seis neutrones: en total, doce partículas. Este es un núcleo estable, que no tiende espontáneamente a un estado de menor energía bajo condiciones corrientes. El hecho de tener seis protones en su núcleo es lo que hace que sea carbono; este número no debe variar o pasará a ser otra cosa.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.

Sin embargo, su número de neutrones sí que puede variar, y seguirá siendo carbono. Por ejemplo, cuando tiene seis protones y siete neutrones (total, trece partículas) estamos ante el carbono-13 (13C). El carbono-13 es también estable en condiciones estándar y, de hecho, aproximadamente el 1,1% del carbono natural (incluyendo el que forma nuestro cuerpo) pertenece a esta variante. Como sigue siendo carbono, sus propiedades químicas (y bioquímicas) son prácticamente idénticas; las físicas varían un poquito, pero muy poco.

Si este núcleo presenta un neutrón más, entonces estamos ante el carbono-14 (14C), que constituye una billonésima parte del carbono natural y está compuesto por seis protones y ocho neutrones. ¡Ah! Aquí cambia la cosa. Esta combinación ya no es estable: tiende a perder energía (y algún neutrón) para transformarse en otra cosa. Sus propiedades químicas y bioquímicas siguen siendo las mismas, pero las físicas difieren sustancialmente. Entre estas diferencias, de manera muy notoria, surge la radioactividad. Con el paso del tiempo, estos núcleos de carbono-14 van a sufrir transmutación espontánea para convertirse en otra cosa. Por ejemplo, en una muestra de carbono-14, la mitad de sus átomos transmutarán en 5.730 años aproximadamente. Cualquiera de ellos puede hacerlo en cualquier momento, por mero azar.

El carbono-14 lo hace por desintegración beta negativa: uno de sus neutrones se reajusta, pierde una carga negativa (en forma de un electrón) y con eso deja de ser neutrón (sin carga) y pasa a tener una carga positiva, con lo que ahora es un protón. Dicho en términos sencillos: un neutrón (neutro, como su nombre indica) «expulsa un negativo» para «quedarse en positivo». Y al «quedarse en positivo» ya no es un neutrón, porque ya no es neutro: se ha convertido en protón (que es positivo). Con lo que ahora tenemos en el núcleo siete protones y siete neutrones. ¿Hemos dicho siete protones? ¡Entonces ya no puede ser carbono! Acaba de transformarse en nitrógeno, un gas en condiciones estándar con propiedades físico-químicas totalmente distintas; para ser exactos, en nitrógeno-14 (14N), el nitrógeno común. Sí, como en la transmutación que soñaban los alquimistas y que finalmente resolvió la física nuclear. (Observa que durante este último proceso el número de partículas en el núcleo no ha cambiado. Lo que ha cambiado es su naturaleza y configuración.)

Uranio-235 altamente enriquecido.

Uranio-235 altamente enriquecido. Rebajado con uranio-238 y dispuesto en forma de pastillas, constituye el combustible más frecuente de las centrales nucleares.

¿Y qué pasa con el electrón («el negativo») que ha emitido? Pues que escapa hacia el exterior, y además lo hace con una cierta energía: 156.000 electronvoltios. Estamos ante la radiación beta. Ya tenemos nuestra radioactividad.

Los núcleos atómicos pueden decaer y desintegrarse de distintas maneras, lo que ocasiona los distintos tipos de radioactividad. Pueden hacerlo en forma de un pequeño grupo de dos protones y dos neutrones (o sea, un núcleo de helio-4), que se llama partícula alfa y constituye la radiación alfa. O como acabamos de ver, emitiendo un electrón o un positrón, lo que forma la radiación beta. O en forma de fotones muy energéticos, de naturaleza electromagnética, que da lugar a la radiación gamma y X. O lanzando neutrones libres, en lo que viene a ser la radiación neutrónica. Cada una de ellas tiene unos efectos y una peligrosidad diferentes, pero todas son distintas manifestaciones del mismo fenómeno: la radioactividad. Todas estas emisiones son capaces de desarrollar trabajo, hacer cosas; entre otras, producen calor. Este calor es el que vamos a utilizar para calentar el agua que moverá las turbinas y con ellas los generadores de electricidad.

Algunos núcleos resultan tan inestables que además son fisionables. Es decir: no se conforman con hacerse retoques aquí y allá, sino que se parten en otros núcleos más pequeños. Al hacerlo, despiden una notable cantidad de energía en forma de energía cinética de los fragmentos, fotones (radiación gamma) y neutrones libres. De manera espontánea, esto sólo ocurre con núcleos muy grandes y pesados, que pueden contener unas configuraciones de lo más raro. Entre estos se encuentra el torio-232 (232Th) o el uranio-238 (238U).

Unos pocos núcleos fisionables son además fisibles. Es decir: la energía que emiten cuando se rompen es tan alta, su estabilidad resulta tan pobre y su sensibilidad al impacto de los neutrones libres es tan elevada que pueden fisionarse entre sí muy rápidamente, intecambiando neutrones una y otra vez. Cuando esto sucede, estamos ante la reacción en cadena: la fisión espontánea de un solo núcleo puede romper varios más, que a su vez rompen muchos más, y así hasta que se agote el material fisible. Hay muy pocos isótopos que reúnan estas condiciones; en la práctica, sólo dos sirven para producir energía de fisión a gran escala. Uno está presente en la naturaleza: el uranio-235 (235U). El otro hay que producirlo artificialmente: se trata del plutonio-239 (239Pu). Hay algunos más, todos ellos sintéticos, como el uranio-233 (233U).


La reacción en cadena. Un neutrón fragmenta un núcleo fisible, lo que produce más neutrones que fisionan los de alrededor, y así sucesivamente hasta que se agota el material o la reacción se contamina demasiado. Cada una de estas fisiones produce energía que se plasma, entre otras cosas, en forma de calor.

Es posible que hayas oído también hablar del torio como combustible para la fisión nuclear. Hablaré de ello con más detalle próximamente, pero ya te adelanto que no es ni con mucho la «solución mágica» que algunos pretenden.

Pila Chicago 1

La Pila Chicago-1, en Estados Unidos, donde Enrico Fermi y Leó Szilárd consiguieron la primera reacción en cadena autosostenida de la historia.

Masa crítica.

Hecho este inciso, sigamos. ¿Cómo se consigue la reacción en cadena? Pues es muy sencillo: simplemente acumulando el suficiente material fisible. Sí, sí, si echas el suficiente uranio-235 enriquecido o plutonio-239 en un cubo, él solito se activará y comenzará a producir energía. De hecho, así ocurren los accidentes de criticidad, como los dos del famoso núcleo del demonio en el Laboratorio Nacional Los Álamos.

¿Cómo es esto posible? Sencillo. En cualquier masa de material fisible hay siempre algún átomo sufriendo fisión espontánea, que vimos más arriba. Si no hay mucho material, los neutrones generados escapan al medio exterior y la reacción en cadena no se produce. Pero cuando se alcanza cierta cantidad de material fisible, la probabilidad de que estos neutrones alcancen a otros núcleos durante su fuga se incrementa; entonces, estos núcleos fisionan y producen más neutrones. Ya tenemos la reacción en cadena.

En consecuencia, por el simple hecho de echar suficiente material fisible en una piscina de agua, éste sufrirá una reacción en cadena y el agua se calentará. Usando uranio-235 puro, bastaría con unir las dos mitades de una esfera de 52 kg dentro de una balsa y tendrías tu reactor nuclear. Claro, la cosa no es tan sencilla. Para empezar, tú no quieres hacer eso; porque si lo haces, obtendrás una excursión instantánea de energía nuclear y con ella uno de esos bonitos accidentes de criticidad abierta que se parecen a una bomba atómica floja aunque no sean realmente una bomba atómica. Y luego, ¿cómo lo paras?

El primer reactor nuclear de la historia fue la Pila Chicago-1, creada por Enrico Fermi y Leó Szilárd: un precario montaje de madera que soportaba capas alternas de grafito mezclado con seis toneladas de uranio puro junto a otras 34 de óxido de uranio. El grafito es un potente moderador neutrónico capaz de ralentizar los neutrones rápidos producidos por la fisión y transformarlos en neutrones térmicos (los alemanes tuvieron un error con el grafito y por eso no pudieron completar nucna un reactor operativo).  Esto tiene dos efectos. El primero es que facilita la fisión entre todo ese material disperso: los neutrones rápidos son demasiado energéticos y tienden a escapar al exterior, mientras que los térmicos están en su punto justo para mantener la reacción en cadena. El segundo es que lo puedes utilizar para acelerar y decelerar la reacción a tu gusto. Sin embargo, la Pila Chicago-1 sólo usaba el grafito para la primera función; la segunda quedaba asegurada mediante unas barras de cadmio, que absorbe los neutrones. Esto dio lugar al peculiar puesto de trabajo del hombre del hacha, quien debía cortar la cuerda para que estas barras cayeran de golpe si todo saliera mal. A las 3:25 de la tarde del día 2 de diciembre de 1942, esta Pila Chicago-1 situada en la ciudad estadounidense del mismo nombre produjo la primera reacción en cadena sostenida de la historia de la humanidad. Comenzaba así la Era Atómica.

Gráfica de intensidad neutrónica de la Pila Chicago-1

Gráfica de intensidad neutrónica de la Pila Chicago-1, el 2 de diciembre de 1942. Puede observarse el momento en que la reacción en cadena neutrónica se dispara por sí misma y no deja de aumentar hasta que se insertan las barras de control.

Las centrales nucleares modernas.

Tomemos como ejemplo la Central Nuclear de Cofrentes (Valencia), que me pilla cerca de casa. Cofrentes es un diseño estadounidense, desarrollado por General Electric, que se llama de reactor de agua en ebullición (BWR). Es el segundo diseño más popular entre los utilizados comúnmente en Occidente,  sólo por detrás del reactor de agua a presión (PWR). Veamos una representación esquemática de este BWR:

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia)

Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia). (Iberdrola) (Clic para ampliar)

Vamos a concentrarnos en la parte central derecha de la imagen anterior, que es donde se genera la energía y se halla distribuida del siguiente modo:

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes

Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes. (Iberdrola) (Clic para ampliar)

…y específicamente en el reactor, donde se produce la energía térmica que luego convertiremos en eléctrica. Ya dijimos que las centrales térmicas son muy poco eficientes: este reactor en particular genera 3.237 megavatios térmicos; sin embargo, la potencia final resultante es de 1.092 megavatios eléctricos. Eso es un 33,7%, apenas un pelín más de la tercera parte. Expresado de otra manera, el 66,3% de la producción (o sea, del valioso combustible nuclear) se pierde por las vías ya mencionadas (sin contar la emisión neutrínica que se funde casi el 5% antes incluso de empezar a producir energía térmica).

Detalle esquemático del reactor nuclear de Cofrentes.

Detalle esquemático del reactor nuclear de Cofrentes. 1.- Venteo y rociador de la tapa. 2.- Barra para izado del secador. 3.- Conjunto del secador de vapor. 4.- Salida de vapor. 5.- Entrada para rociadores del núcleo. 6.- Conjunto de separadores de vapor. 7.- Entrada de agua de alimentación. 8.- Distribuidor de agua de alimentación. 9.- Entrada de la inyección de refrigerante. 10.- Tubería de rociadores del núcleo. 11.- Distribuidor para rociadores del núcleo. 12.- Guía superior. 13.- Bombas de chorro. 14.- Envolvente del núcleo. 15.- Elementos combustibles. 16.- Barra de control. 17.- Placa soporte del núcleo. 18.- Entrada de agua de recirculación. 19.- Salida de agua de recirculación. 20.- Soporte de la vasija. 21.- Blindaje del reactor. 22.- Accionadores de las barras de control. 23.- Tuberías de accionamiento hidráulico de las barras de control. 24.- Detectores internos de neutrones. (Iberdrola)

El reactor es una vasija de acero SA-533 GrB con revestimiento interior inoxidable, de 21,3 metros de altura por 5,53 de diámetro; el grosor mínimo del acero asciende a 13,6 cm, para soportar una presión máxima de 87,5 kg/cm2 (unas 84,7 atmósferas). Los reactores BWR utilizan agua destilada corriente como refrigerante y como moderador, por lo que aquí no nos encontramos con grafito ni agua pesada ni nada de eso; pero, por esta razón, requiere para funcionar uranio ligeramente enriquecido en el isótopo fisible 235U. En el caso particular de Cofrentes, utiliza uranio enriquecido al 3,6% (el llamado uranio natural tiene un 0,7% de 235U).

Este combustible está organizado en forma de pequeñas esferas o perdigones de dióxido de uranio, introducidos en varillas y ensamblajes de un material que se llama zircaloy. El zircaloy es una aleación compuesta en su gran mayoría por zirconio. El zirconio, un metal, tiene una característica peculiar: es muy transparente a los neutrones. O sea: los neutrones que aseguran el sostenimiento de la reacción en cadena pueden pasar libremente a su través, saltando de barra en barra.

Para el uranio natural, el agua corriente (agua ligera) es un absorbente neutrónico y bloquea la reacción en cadena. Sin embargo, con este uranio enriquecido al 3,6%, la radiación neutrónica es lo bastante intensa para mantenerla y entonces el agua ligera actúa de moderador como si fuera grafito o agua pesada. Esto presenta varias ventajas significativas. La primera es que el agua ligera destilada sale enormemente más barata y accesible que el agua pesada. Al mismo tiempo, no presenta el riesgo de incendio del grafito (en Chernóbyl, el incendio principal fue un incendio de grafito). Sirve para transportar el calor producido. Y, adicionalmente, el flujo y temperatura del agua se pueden utilizar en el control de la reacción.

Pero el control principal corre por cuenta de 154 barras de carburo de boro, un poderoso absorbente neutrónico con poca tendencia a crear isótopos raros como resultado de esta absorción. Cuando se insertan estas barras entre las de combustible, atrapan los neutrones producidos por la fisión del uranio presente en estas últimas y deceleran o interrumpen la reacción en cadena. Al extraerlas, permiten la circulación de los neutrones y el reactor se acelera.

La lógica del invento resulta bastante sencilla. Hemos quedado en que la mera acumulación de un material fisible como el uranio-235 inicia espontáneamente una reacción en cadena, cuya intensidad depende fundamentalmente del enriquecimiento y de la densidad; esta reacción se produce porque los neutrones emitidos en cada fisión espontánea pueden alcanzar otros átomos de uranio-235, haciéndolos fisionar a su vez, y así sucesivamente.

En un reactor recién cargado pero aún parado tenemos las barras de combustible introducidas en el agua, lo que debería iniciar de inmediato esta reacción en cadena espontánea; sin embargo, hemos metido por entre medias las barras de control, el absorbente neutrónico, con lo que los neutrones no pueden saltar de barra en barra y por tanto la reacción no se produce o lo hace con una intensidad muy pobre.

Entonces, para poner en marcha la central comenzamos a extraer las barras de control (de absorbente neutrónico). Las fisiones espontáneas en los núcleos de uranio-235 (o, para el caso, plutonio-239) comienzan a lanzar neutrones en todas direcciones, y específicamente hacia las demás barras de combustible.

Estos neutrones producidos por la fisión son mayoritariamente neutrones rápidos. Los neutrones rápidos tienen una capacidad relativamente pobre de provocar nuevas fisiones; ya dijimos que, por explicarlo de algún modo, pasan demasiado deprisa para tener un efecto. Pero entonces se encuentran con el moderador, que tradicionalmente era grafito o agua pesada y aquí es agua destilada corriente. Cuando el uranio está poco enriquecido, el agua actúa como absorbente neutrónico –igual que si fuera una enorme barra de control– y los detiene por completo, interrumpiendo la reacción. Pero cuando el uranio está algo más enriquecido (como en este caso, al 3,6%), el agua actúa como moderador neutrónico: es decir, los ralentiza hasta convertirlos en neutrones térmicos, óptimos para provocar nuevas fisiones.

Así que al extraer las barras de control y dejar a las de combustible envueltas en agua, la reacción en cadena comienza a acelerar, calentando este agua de su alrededor. Mediante una compleja combinación de barras de control y flujo del agua, se puede ajustar la reacción en cada zona exacta del núcleo con gran precisión.

De este modo, la temperatura del agua circundante aumenta rápidamente. En la gran mayoría de los reactores nucleares, esta agua moderadora-controladora-transportadora se encuentra contenida en un circuito cerrado con circulación forzada que nunca entra en contacto directo con el exterior (o no debe hacerlo, vamos). Este circuito cerrado que pasa por dentro del reactor se llama circuito primario.

En un reactor de agua en ebullición, el agua de este circuito primario se halla a unas 70 o 75 atmósferas de presión (en Cofrentes está a 70,1). Esto permite que entre en ebullición cuando la temperatura alcanza unos 285ºC (los reactores de agua a presión se mantienen a casi 160 atmósferas, lo que no deja que haya ebullición). Así se forma rápidamente vapor en la parte superior de la vasija, que circula por unas canalizaciones hacia la turbina de alta presión. Ya tenemos energía. Ahora hay que convertirla en electricidad.

Central nuclear de Cofrentes desde una loma cercana.

La central nuclear de Cofrentes vista desde una loma cercana, con las torres de refrigeración proyectando los característicos –e inocuos– penachos de vapor.

Cuando este vapor a elevada presión y temperatura llega a la turbina de alta presión, la hace girar sobre su eje siguiendo las leyes de Carnot y Rankine que mencionamos más arriba. Y con ello hace girar un alternador que produce energía eléctrica, exactamente como cualquier otra clase de central térmica y la inmensa mayoría de los generadores. De ahí, el vapor –que aún mantiene una cantidad importante de energía aprovechable– pasa a las turbinas de baja presión, cuyos alternadores producen más electricidad. Toda esta corriente es remitida a los transformadores exteriores y de ahí a la red de 400.000 voltios para su distribución comercial.

Ahora ya sólo queda asegurarnos de que el agua vuelve al reactor para mantener el ciclo sin fin, más fría y de nuevo en estado líquido. Esta es la función de los condensadores, que son, en esencia, cambiadores de calor. Los condensadores se mantienen fríos con agua procedente de algún río o mar próximo, que viaja por su propio circuito: el circuito secundario. Así, cuando el agua del circuito primario pasa por estos condensadores, pierde temperatura suficiente como para volver al estado líquido por completo y regresar al reactor. Ambos circuitos no entran nunca en contacto, garantizando que la contaminación radioactiva ocasionada al pasar por el reactor permanezca contenida en el primario.

Finalmente, el agua del secundario –que se ha calentado al pasar por los condensadores– es enfriada en las torres de refrigeración. Así se forman esas características nubes de vapor blanco que podemos ver en la imagen de la izquierda.

En mi opinión, las centrales nucleares de fisión son una buena manera de producir la muy necesaria electricidad. Lo que pasa es que tienen sus limitaciones. En realidad, no son ni la pesadilla que creen unos ni la panacea que creen otros. Ya apunté las razones en el post El renacimiento nuclear, en la incubadora. De manera muy resumida, es cara, es incierta, tiene sus riesgos y resulta poco flexible en los mercados liberalizados. Resulta tremendamente significativo que el 89% de los reactores que se construyen en la actualidad pertenezcan a empresas monopolísticas estatales o paraestatales, mientras sólo seis unidades representan una apuesta privada.

De hecho, la energía nuclear de fisión ha sido la más subvencionada de toda la historia: sólo en los Estados Unidos, representó el 96% de los subsidios totales al desarrollo energético entre 1947 y 1999. El coste de instalación por kilovatio es varias veces mayor que el de, por ejemplo, una central de ciclo combinado a gas natural. El precio en el mercado del kilovatio final no sale tan ventajoso. Y tampoco garantiza la independencia en tecnologías energéticas: por razones de liberalización y deslocalización de los mercados, existen componentes esenciales de las centrales nucleares que únicamente se fabrican en Japón, China y Rusia. Las mayores minas de uranio sólo están en Canadá, Australia, Kazajstán, Rusia, Namibia y Níger: muchos menos países que productores de petróleo o gas. Si se opta por combustible reprocesado, únicamente quedan reactores regeneradores a gran escala en Rusia. (Los datos de todo esto están en el post mencionado sobre el renacimiento nuclear)

En suma: después de décadas de cultura de la seguridad, ni milagro ni diablo. Sólo una fuente de energía más, al menos en el presente orden socioeconómico, que nos obliga a seguir investigando otras maneras de extraerle a la naturaleza la energía que necesitamos. Y necesitaremos.


Otra explicación básica del funcionamiento de una central nuclear.

Próximamente: El ciclo del combustible nuclear.

129 Comentarios Trackbacks / Pingbacks (46)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (78 votos, media: 4,85 de 5)
Loading...
Be Sociable, Share!

Así te persigue un misil.

¿Cómo lo hace una máquina para perseguirte con la furia gélida de los robots?


Un UAV georgiano Hermes 450 de fabricación israelí graba el instante en que fue derribado por un caza ruso MiG-29,
el 20 de abril de 2008, durante los prolegómenos de la última guerra entre ambos países.
El derribo, probablemente con un misil R-73 «Arquero», se produjo frente a la costa de la disputada Abjasia.
Ministerio del Interior de Georgia, Reuters

El bífaz Excalibur, hallado en la sima de Atapuerca.

El bífaz Excalibur, un hacha de 400.000 años de antigüedad hallada en Atapuerca. ¿Una ofrenda, un utensilio, un arma...? En todo caso, una herramienta.

A ojos extraterrestres, probablemente el rasgo más distintivo de la especie humana con respecto a los demás animales sería nuestra capacidad para construir herramientas. Somos mucho más capaces de construir herramientas –materiales e intelectuales– que cualquier otro de los terrestres, y encima sabemos utilizarlas para crear herramientas aún más complejas, en una carrera sin fin llamada tecnología. La historia de la humanidad es, sobre todo, la historia de su tecnología y del conocimiento acertado o equivocado que hay detrás: la filosofía, la religión, la ciencia.

Desde el principio, aplicamos esta capacidad a la construcción de armamento. Como cualquier otra especie biológica, la gente humana necesitamos cazar, defendernos, atacar. En esto no nos diferenciamos en absoluto de los demás vivientes: la violencia forma parte sustancial de nuestra naturaleza. Eso no es ni bueno ni malo; simplemente, es. Toda la historia de la civilización es la historia de cómo aprendimos a ir contra natura; a limitar, articular e incluso suprimir nuestra naturaleza en favor de un bien percibido mayor –la colectividad, el progreso, la justicia, la ley, el orden social, la prosperidad–, que a su vez forman parte de estas herramientas intelectuales con las que sabemos dotarnos.

Así, los actos de violencia adquieren en las sociedades humanas una dualidad extraña. Matar por razones individuales, egoístas, se convierte en un crimen: el homicidio, el asesinato. Matar por razones colectivas –la tribu, la nación, la religión, la clase, la política, la ley– pasa a ser un acto de heroísmo. El mismo individuo al que las turbas gritan «¡asesino!» durante su camino al juzgado para ser condenado por matar a veinte personas es llamado «héroe» durante el desfile de la victoria, por esas mismas masas, si sus veinte víctimas pertenecían al enemigo. Por lo que hoy es un espantoso crimen, mañana dan medallas. En ausencia de una ética universal, los actos humanos carecen de sentido y de valor moral por sí mismos: todo depende del contexto, de la ética local, de la narrativa, de la propaganda.

De este modo los creadores de armas nuevas –herramientas nuevas para la violencia– se suelen considerar geniales y magníficos cuando son de los nuestros o pérfidos y diabólicos cuando son de los ellos. Esto se observa desde que existen registros escritos, y sigue viéndose en la actualidad sin cambio alguno; por ejemplo, en las condenas a los países que intentan crear armas de destrucción masiva… por parte de países que poseen decenas de miles de armas de destrucción masiva. El argumento es siempre igual: lo nuestro está justificado (por nuestro contexto, nuestra ética local, nuestra narrativa, nuestra propaganda); lo de ellos no. Y viceversa, claro.

Siendo un poco más eclécticos, se comprende que el afán de crear armas nuevas capaces de aportarnos una ventaja decisiva contra ellos ha sido una constante en todas las sociedades humanas. Con alguna perspectiva histórica, la verdad es que a estas alturas nos importan bien poco los valores que defendía el bífaz Excalibur de Atapuerca, suponiendo que defendiese alguno. Los viejos lamentos de que la reintroducción de la ballesta en Occidente iba a acabar con la nobleza medieval, al permitir al plebeyo infante perforar la coraza del caballero montado, se nos antojan hoy anticuados y hasta risibles; entre otras cosas, porque los valores de la aristocracia feudal –que la ballesta, en efecto, contribuyó a destruir– ya no nos parecen dignos de mantener. Y qué decir de la pólvora. O la dinamita. O la industrialización de la guerra, que nos llevó al concepto moderno de guerra total. La historia de las armas es la historia de la tecnología, de la ciencia y del pensamiento de las sociedades que las crearon.

La literatura está llena de referencias a toda clase de anheladas armas mágicas a caballo entre la religión, la ciencia, la filosofía y la leyenda. Por ejemplo, las distintas espadas con nombre propio capaces de derrotar a incontables ellos: Tizona, Colada, Zulfiqar, Durandarte, Kladenets, Taming Sari, Kusanagi, la Excalibur artúrica. O las defensas mitológicas: Égida, Svalinn, los escudos de Ajax y Lancelot, el baño de Aquiles en el río Estigia. Y, por supuesto, lanzas y flechas que jamás fallaban su blanco: Gungnir, Gandiva, Gáe Bulga, el arco de Hércules. Inevitablemente fue la ciencia, y su hija la tecnología, quienes terminaron por crearlas. O al menos, cosas parecidas.

Soldados alemanes preparan un misil de crucero V-1 para su lanzamiento. Deutsches Bundesarchiv.

Soldados alemanes preparan una "bomba volante" o misil de crucero V-1 para su lanzamiento. Probablemente la V-1 nazi fue el primer misil operacional verdadero de la historia. Deutsches Bundesarchiv.

La flecha que nunca falla. O eso se pretende.

La idea de crear una especie de flecha capaz de perseguir a su blanco por sí sola habría puesto sin duda los ojos como platos a cualquier guerrero antiguo. Si además le hubiéramos contado que esa flecha se propulsaría a sí misma y destruiría el más grande de los barcos, la más resistente de las murallas y la más impresionante máquina bélica de ellos en un destello de fuego deslumbrador, o nos habría tomado por locos o nos habría pedido que siguiéramos contándole esa leyenda tan chula. Durante milenios, lo más parecido que tuvo la humanidad a un arma autoguiada fueron los perros de caza y combate y otros animales de uso militar.

Las primeras armas capaces de guiarse a sí mismas aparecieron durante la Primera Guerra Mundial. Se trataba, básicamente, de complicados mecanismos de relojería capaces de hacer que un avión o torpedo describiese una trayectoria prefijada antes de precipitarse sobre su blanco. Entre estos intentos primitivos se cuentan el torpedo volante del inventor estadounidense del piloto automático Lawrence Sperry, el Kettering Bug de este mismo país –a caballo entre lo que hoy en día llamaríamos un misil de crucero y un UAV– o los blancos aéreos británicos guiados por radio. Parece que los alemanes también intentaron alguna clase de torpedo guiado para su lanzamiento desde zepelines.

Durante el periodo de entreguerras fueron surgiendo conceptos cada vez más sofisticados, pero aún insuficientes para ser tomados seriamente en consideración por los militares. Entre estos se encuentran el Larynx británico y el GIRD-06 soviético de Sergei Korolev, que además de un autopiloto giroscópico incorporaba ya un pequeño cohete como impulsor. Pero no fue hasta mediados de la Segunda Guerra Mundial cuando las armas autopropulsadas y autoguiadas encontraron definitivamente su camino al frente de batalla. Sucedió en 1943, de modo casi simultáneo, con el torpedo alemán G7e/T4 Falke y el Mark 24 FIDO estadounidense. Ambos seguían el ruido subacuático emitido por sus blancos –buques y submarinos– y se demostraron tan eficaces que ya no hubo marcha atrás. Al año siguiente, 1944, la Alemania nazi ponía en servicio el primer misil de crucero real: la V-1. Y en septiembre de ese mismo año, el primer misil balístico eficaz: la V-2.

Tanto la V-1 como la V-2 utilizaban pilotos automáticos para alcanzar un punto determinado del territorio enemigo, por lo que no seguían al blanco, sino que atacaban objetivos estáticos (los misiles de crucero y los ICBM actuales siguen haciendo exactamente lo mismo, si bien con ayudas mejoradas a la navegación y mucha mayor precisión y eficacia). Su enorme visibilidad hizo que otros inventos alemanes capaces de perseguir a su blanco pasaran bastante desapercibidos en el imaginario colectivo. Así, pocos recuerdan al Fritz X, que hundió al acorazado Roma –buque insignia de la flota italiana– cuando ya se estaba pasando a los aliados; sin embargo, el Fritz X era un arma de telecomando, que seguía a su blanco gracias a las acciones de un operador humano, no de un sistema de guía autónomo.

Corbeta Komar disparando un misil P-15 Termit (SS-N-2 Styx).

Durante la Guerra de los Seis Días, el 21 de octubre de 1967, la Armada Egipcia hundió al destructor israelí Eilat con tres misiles P-15 Termit (SS-N-2 Styx). El lanzamiento fue realizado por dos corbetas Komar, sin salir del puerto de Port Said, a 17 millas de distancia. Fue la primera vez en que un buque resultaba hundido por misiles completamente autopropulsados y autoguiados, cambiando así la historia de la guerra naval. En la imagen, una corbeta Komar lanza un misil P-15 Termit. (Mały okręt rakietowy, Wydawnictwo MON, Varsovia, 1974)

El Ruhrstal X-4, que no llegó a entrar en servicio, pretendía derribar bombarderos también bajo el comando de un ser humano. Lo mismo cabe decir del Hs 293, que consiguió algunos éxitos antes de que los aliados aprendieran a interferir la señal de telecomando. Los antiaéreos Wasserfall y Feuerlilie también eran teleguiados, no autoguiados; ninguno de los dos estaba terminado cuando acabó la guerra. Más interesante resulta el Enzian. Aunque aún telecomandado, iba provisto con una guía final infrarroja denominada Madrid que dependía igualmente de la acción humana pero ya empezaba a apuntar hacia el futuro. Ninguno de todos estos conceptos llegó a tiempo para tener una influencia significativa en la Segunda Guerra Mundial.

Resulta difícil decir cuál fue el primer misil moderno verdadero, pues fueron el resultado de una evolución progresiva durante la Guerra Fría. También depende del tipo de misil del que hablemos. Se puede afirmar que la V-2 alemana ya era un misil balístico moderno verdadero; aunque le faltaban algunas características de los actuales (etapas y cabezas múltiples, guía astroinercial…), ya «hacía lo que tenía que hacer» y era dispara-y-olvida por completo. En sentido estricto, la V-1 también entraría en esta clasificación, como misil de crucero. Entre los misiles aire-aire, probablemente el honor corresponda a alguna versión del estadounidense AIM-9 Sidewinder.

Los tierra-aire, en cambio, tardaron más en desprenderse del telecomando humano; sistemas legendarios de la Guerra Fría como el SA-2 soviético o los Nike norteamericanos dependían por completo de sus operadores. Incluso las primeras versiones del S-300 y el Patriot utilizaban teleguiado parcial, que sigue usándose actualmente en algunos modos de operación. La mayor parte de misiles genéricamente llamados antitanque, contra blancos móviles terrestres, siguen dependiendo de algún sistema de puntería manejado por una persona. Los antibuque, en cambio, se independizaron desde por lo menos el P-15 Termit soviético (SS-N-2 Styx, en denominación OTAN). Y entre los aire-superficie hubo y hay una diversidad de soluciones, dependiendo de su función exacta. Veámoslo.

Misilística básica.

En sus idiomas originales –francés e inglés– la palabra missile viene del latín missilis («lanzable») y puede referirse a cualquier proyectil, incluso una piedra, arrojado deliberadamente o no. Sin embargo, hoy en día decimos que un misil es un tipo de arma aeroespacial autopropulsada y autoguiada. Así, se distinguen de los torpedos guiados (que no son aeroespaciales, sino submarinos), de las bombas guiadas o inteligentes (que carecen de propulsión autónoma), de los cohetes no guiados (artillería de cohetes, cohetes sin guía como los RPG, los LAW, los Zuni o las series S rusas) y de los lanzadores espaciales (aeroespaciales, autopropulsados y autoguiados, pero no armas en sí mismos).

Por centrar el post, vamos a estudiar los misiles que son capaces de seguir autónomamente a un blanco. Es decir, eso de las pelis: apuntas a algo, le lanzas un misil y te olvidas mientras el otro tipo hace lo que puede por evitarlo. ¿De qué manera puede una máquina perseguir a su oponente cual Terminator con trastorno obsesivo-compulsivo? Bien: todas ellas lo hacen husmeando sus emisiones.

Todo lo que existe, emite. Y además, emite radiación electromagnética. Tu cuerpo, por ejemplo, emite calor debido a sus procesos metabólicos; es decir, radiación térmica, en la banda del infrarrojo. También refleja la luz visible procedente del sol, la luna, las estrellas o cualquier fuente de iluminación artificial. Por eso se nos puede ver: los ojos son receptores de radiación electromagnética en la banda de la luz visible. Esta es, de hecho, la manera más antigua de localizar al enemigo utilizada por la humanidad: verlo.

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P (MAKS 2009).

Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P de 1988. Actualmente han sido reemplazadas por las L-130. (MAKS 2009)

Empecemos con uno de los conceptos más fáciles: el misil anti-radiación. Los misiles anti-radiación se usan para atacar objetivos que están emitiendo voluntariamente, como los radares o los transmisores de radio y radiotelefonía. Los ejércitos modernos y las sociedades modernas en general dependen de una montaña de emisiones, desde los grandes radares de alerta temprana hasta los teléfonos móviles. Y todo lo que emite se delata a sí mismo. Usando tecnología similar a la de tu oponente, tú puedes detectar una emisora enemiga como mínimo al doble de distancia a la que esa emisora es eficaz, y por lo tanto atacarla desde el doble de distancia si tienes un arma con ese alcance. ¿Cómo puede ser esto?

Veámoslo con un ejemplo sencillo. Supongamos que tú vienes en un avión a atacarme a mí y yo quiero detectarte con un radar; ambos tenemos un nivel tecnológico similar. Yo enciendo mi radar, tú vienes hacia mí. Como las señales de radio (el radar usa señales de radio) reducen su intensidad con el cuadrado de la distancia, al principio estamos demasiado lejos y la señal pierde potencia hasta el punto en que no puede excitar un receptor a ninguno de los dos lados: ninguno detecta al otro. Tú sigues acercándote. A una distancia dada, mi señal mantiene intensidad suficiente para excitar los receptores que llevas a bordo: tú acabas de detectarme a mí. Pero la señal aún tiene que rebotar sobre ti y hacer el viaje de vuelta hasta mi radar, con lo que pierde demasiada intensidad durante el retorno y sigo sin detectarte: tú me estás detectando a mí, yo no te estoy detectando a ti. Me estoy delatando yo solito y tú puedes utilizar técnicas de radiogoniometría para ubicarme con gran precisión, y yo aún no te veo. Tendrás que acercarte mucho más, al menos a la mitad de distancia, para que mi señal rebote sobre ti y vuelva a mi radar con la intensidad suficiente para excitar mis receptores: sólo entonces te detectaré. Mientras te mantengas en la «segunda mitad» de la distancia que nos separaba en el momento en que me detectaste por primera vez, estás a salvo por completo salvo que mis receptores fueran mucho más sensibles que los tuyos.

Con receptores iguales, un blanco puede detectar al radar antes de que el radar lo detecte a él.

El cazador cazado: con receptores iguales, un blanco puede descubrir al radar antes de que el radar lo descubra a él. Teóricamente, aplicando la ley del inverso del cuadrado, al doble de distancia exacta. El blanco puede aprovechar esa diferencia para atacar al radar desde una distancia de seguridad donde no está siendo detectado. Si el avión encendiera su radar, perdería esta ventaja de inmediato. (Clic para ampliar)

Misil antirradiación estadounidense AGM-88 HARM.

Misil antirradiación estadounidense AGM-88 HARM, aire-superficie. La Fuerza Aérea Española equipa estos proyectiles con los cazabombarderos EF-18.

Evidentemente, desde esa «segunda mitad» de distancia puedes dispararme un arma con toda la tranquilidad del mundo. Y yo seguiré sin detectarte. Lo primero que veré de ti será… tu misil, directamente hacia mi posición. En un caso como este, decimos que mi radar está en modo activo (porque emite y recibe) mientras que tu avión está en modo pasivo (porque sólo recibe); mientras la cosa se mantenga así, tu avión tendrá una ventaja decisiva sobre mi radar.

Para ti, sería idóneo llevar ahora un misil anti-radiación de alcance suficiente para atacar mi radar sin entrar en su zona de detección. Un misil anti-radiación, en sus modelos más básicos, es un cohete con un receptor de radio que tiende a volar hacia el punto en que la radiación electromagnética (o sea, la emisión de radio o radar) es más intensa. Si siempre se dirige hacia el punto donde la radiación es más intensa, pues al final se encontrará… con la antena del radar, lógicamente. Bum.

Hay cosas que yo puedo hacer para evitar que tu misil anti-radiación me alcance. Por ejemplo, cambiar de frecuencia, a alguna que su receptor no logre captar. O simplemente apagar el radar unos minutos, con lo cual ya no podrá seguirme y se perderá. Debido a eso, los misiles anti-radiación modernos llevan receptores mejorados y sistemas de guía adicionales; por ejemplo, una segunda guía de tipo infrarrojo que «se enganche» al calor residual disipado por los equipos electrónicos del radar aún cuando ya esté apagado. E incluso un sencillo navegador inercial que mantenga la dirección de vuelo hacia las coordenadas donde detectó mayor emisión antes de que el radar se apagara.

Pero en términos generales, el ejemplo del misil anti-radiación nos sirve muy bien para entender el principio en el que se sustentan todos los misiles que persiguen al blanco: viajan hacia el punto donde la radiación característica emitida (o reflejada) por su objetivo es más intensa. Por simple teoría de campos, ese punto es el propio objetivo: un radar, una radio, un teléfono celular o satelitario, su estación base, cualquier cosa que emita de manera identificable.

El misil anti-radiación básico es también un buen ejemplo de un sistema de guía completamente pasivo. Esto es: la guía del misil no emite nada para localizar a su objetivo. Es el objetivo quien lo emite todo, delatándose así y ofreciéndole en bandeja una trayectoria al misil.

Misil anti-AWACS ruso R-37.

Misil aire-aire anti-AWACS ruso R-37. Fue desarrollado para destruir aviones-radar AWACS y otros C4ISTAR desde largas distancias (supuestamente hasta 400 km), tras detectar sus emisiones.

Quiero tu calor.

Este es el principio de funcionamiento de todos los misiles (y torpedos) provistos con guías pasivas: aprovechar una emisión inherente al blanco para localizarlo y perseguirlo. Desde el principio, se observó que las emisiones inherentes más interesantes desde el punto de vista militar eran el calor y el sonido. Todo lo que lleva un motor a bordo emite necesariamente calor y sonido; los equipos eléctricos y electrónicos también disipan calor.

Perfil de emisión térmica del MiG-27.

Perfil de emisión térmica de un avión táctico MiG-27 de 1975. La luz solar incidente es reflejada y re-emitida por la estructura y el material de la cabina, con intensidad dependiente de sus acabados. La parte posterior de la estructura, calentada por el motor, hace que el fuselaje trasero emita en banda de 4μ y la tobera en torno a 2μ. La "pluma" del reactor se expande y enfría detrás de la aeronave, absorbiendo algunas de las longitudes de onda más cortas emitidas por la tobera pero emitiendo en banda infrarroja más larga (de 4 a 8μ). La intensidad de la emisión viene generalmente definida por la temperatura, que a veinte metros detrás de la cola viene a ser de unos 100ºC sin posquemador y de 300ºC con posquemador. (Clic para ampliar)

Las ondas sonoras se transmiten mucho mejor en el agua que en el aire, y esa es la razón de que la mayor parte de los torpedos con guía pasiva se apoyen sobre todo en el sonido emitido por el blanco para alcanzarlo. La radiación térmica del calor, una forma de radiación electromagnética, se difunde mucho mejor por el aire que por el agua; y ese es el motivo de que un gran número de misiles aéreos aprovechen las emisiones infrarrojas del objetivo para atacarlo en el cielo o en la superficie. Casi todos los misiles pasivos aire-aire y una parte significativa de los aire-superficie utilizan guías infrarrojas para perseguir a sus blancos.

Las máquinas de volar son grandes emisores de radiación infrarroja. Un motor a reacción militar, por ejemplo, desprende mucho calor durante el vuelo; algunas partes del mismo alcanzan más de 1.000 ºC. A los ojos de una guía infrarroja, esto es un «destello en el cielo» casi tan brillante como el sol. Al igual que ocurre con los misiles anti-radiación en la banda de radio, un misil básico de guía infrarroja tiende a volar hacia la fuente de emisión electromagnética en la frecuencia infrarroja más intensa dentro de su cono de detección.

Uno de los trucos más antiguos para despistar a un misil de guía infrarroja fue posicionar tu avión contra el sol, de tal modo que el arma tendiese a buscar el punto más caliente (con más emisión térmica) del cielo: el astro rey. Así, el misil se olvidaba de tus reactores y se iba a perseguir un punto imposible del espacio exterior, quedándose sin energía rápidamente. En buena lógica, una de las primeras mejoras que se aplicaron a las guías infrarrojas de los misiles fue diseñarlas de tal modo que ignoraran al sol como fuente de radiación infrarroja.

Un misil aire-aire moderno de guía infrarroja pasiva está compuesto por cinco secciones principales. La sección de empuje es un motor-cohete de alta aceleración; los más avanzados disponen de tobera vectorizada para multiplicar su maniobrabilidad. La sección aerodinámica está compuesta por diversas aletas, canards y alerones móviles más sus mecanismos de control, encargadas de orientarlo constantemente en la dirección precisa; algunos disponen de desestabilizadores, con el propósito de incrementar la velocidad de reacción en maniobras ultrarrápidas. La cabeza explosiva consta de un cartucho detonante envuelto en metralla, normalmente provista con una espoleta de impacto convencional. También tenemos la espoleta de proximidad, que se encarga de hacer estallar la cabeza explosiva cuando no hay impacto directo, en el instante en que la distancia al blanco deja de reducirse. Y, por supuesto, el sistema de guía, con su sensor infrarrojo y toda la electrónica de control.

Esquema del misil aire-aire ruso R-73 (AA-11 Archer).

Esquema del misil aire-aire ruso con guía infrarroja pasiva todo-aspecto Vympel R-73 (llamado en Occidente AA-11 Arquero). La versión original de 1982 tenía 20 km de alcance, mientras que la más moderna R-73M2 es efectiva hasta a 40 km de distancia, con una velocidad de Mach 2.5; cada unidad cuesta entre 50.000 y 60.000 dólares (por el Sidewinder norteamericano, con 18 km de alcance, cobran $85.000). Este fue, probablemente, el misil empleado en el video que abre este post por el MiG-29 para derribar al UAV georgiano; los UAV, con su minúsculo motor a hélice, dejan una traza infrarroja muy débil y resulta conveniente acercarse para asegurar el tiro.

Buscador infrarrojo de un misil europeo Iris-T.

Buscador infrarrojo de un misil europeo Iris-T de 2005. Puede observarse el montaje en cárdan.

Los sensores infrarrojos modernos suelen ir montados en un cardán (gimbal) para incrementar su capacidad de detección fuera de eje (off-boresight). Así no es preciso que el misil o el avión lanzador estén apuntando en la dirección general del blanco todo el tiempo, sino que pueden desviarse para optimizar la aproximación o atacar desde un lateral o desde altitudes muy distintas. El R-73 original de 1982 tenía una capacidad off-boresight de 60º, el Sidewinder AIM-9X de 2003 la mejora a 90º y el R-73M2 llega hasta 120º. Esto les permite también mejorar su navegación proporcional, aumentando las posibilidades de derribar blancos en alcances extremos o ángulos difíciles.

Las guías infrarrojas del presente son también todo-aspecto. Antiguamente, la guía tenía que apuntar directamente a la fuente de calor para «engancharse» (blocar) adecuadamente al blanco; esto significaba que era preciso lanzar el misil desde un estrecho cono detrás del objetivo, donde la emisión térmica de sus motores resulta más intensa. Las actuales, mucho más sensibles, pueden ver el calor del blanco desde cualquier ángulo; esto permite, por ejemplo, disparos frontales de gran alcance o realizados durante fuertes maniobras donde el ángulo relativo al eje del blanco varía brutalmente. Para lograrlo, han sustituido los tradicionales sensores infrarrojos de sulfuro de plomo (PbS) por otros fabricados con antimoniuro de indio (InSb) o telururo de mercurio-cadmio (HgTeCd, MerCad), refrigerados con nitrógeno líquido u otros gases comprimidos. Junto a una aerodinámica y un cobertor frontal mejorados, que reducen el calentamiento del propio misil al acelerar a velocidades supersónicas, estos nuevos sensores les permiten ver señales más tenues y/o a mayor distancia.

La mejor manera de engañar a un misil de guía infrarroja es enfrentándolo a otras fuentes de calor que se confundan con las del blanco. Además del truco solar mencionado más arriba, la más clásica era instalar una rejilla desprendible en la tobera, que se separaba durante la aproximación de un misil mientras el avión realizaba un brusco viraje para salirse de su campo de búsqueda. Así, el misil tendía a seguir persiguiendo la rejilla caliente, en vez de al avión. Poco después llegaron las bengalas, que arden a miles de grados y por tanto ofrecen al buscador una fuente térmica mucho más intensa que el blanco.


Dos cargueros C-130 Hércules de la Fuerza Aérea Estadounidense disparan bengalas durante una exhibición,
con su característica forma de «alas de ángel».
El propósito de estas bengalas es ofrecer fuentes de calor alternativas a los misiles de guía infrarroja para confundirlos.

Los avances en las cabezas buscadoras infrarrojas han ido convirtiendo progresivamente estas defensas en obsoletas. Por ejemplo: los sensores antiguos eran monocromáticos, esto es, ajustados para ver en una sola frecuencia; típicamente en torno a la longitud de onda de 4,2 μm, correspondiente a la emisión característica del CO2 caliente a la salida de un reactor. Esto era relativamente sencillo de confundir con bengalas que emitían calor en una frecuencia muy parecida. Después aparecieron los sensores bicromáticos, que ven también en la longitud de onda entre 8 y 13 μm, donde la absorción del aire es menor y por tanto la radiación llega más lejos. En la actualidad, claro, ya los hay policromáticos: observan en estas dos bandas y en otras donde las bengalas responden peor, por lo que se distinguen mejor de los gases y el fuselaje caliente del blanco.

Contramedida infrarroja direccional AN/AAQ-24V Nemesis.

Contramedida infrarroja direccional (DRCM) AN/AAQ-24(V) "Nemesis" de Northrop Grumman, para inducir confusión en los misiles con guía infrarroja mediante el uso de señales direccionales láser. Se suele equipar en cargueros, aviones ligeros y helicópteros, especialmente frágiles a esta amenaza.

Otro problema tradicional con estas guías se producía al aproximarse al objetivo. Los buscadores antiguos utilizaban modulación por amplitud para determinar la posición angular del blanco con respecto a la del misil, y por tanto indicar a éste cuánto debía virar para echársele encima. Durante el tramo final, esta técnica daba problemas porque el mayor tamaño percibido del blanco provocaba una señal más fuerte, conduciendo a errores de cálculo que además podían utilizarse para engañar al proyectil con bruscas maniobras que cambiaban el aspecto del objetivo. Este problema se resolvió cambiando a frecuencia modulada, que permite discriminar correctamente la distancia sin dejarse confundir por el tamaño aparente.

En cuanto a la manera como el sensor busca, del barrido por giro se pasó al barrido cónico y hoy en día a la composición digital; en estas guías de última generación, el sensor es una especie de cámara CCD infrarroja-ultravioleta que compone constantemente un mapa tridimensional de la posición del misil y la de su blanco en el ordenador de a bordo del primero. El perfil de vuelo de un avión o un helicóptero es muy distinto al de una bengala, por lo que el misil puede distinguir entre ambos y atacar al correcto.

Más allá de las bengalas, existen perturbadores para inducir errores en el análisis de la señal infrarroja del misil. Estos sistemas, llamados genéricamente contramedidas infrarrojas o IRCM, constan de una fuente de radiación infrarroja modulada con una intensidad mayor que la de los motores y superficies del blanco. Esta señal de modulación alterada introduce confusión en la cabeza buscadora y puede provocar un desblocaje; entonces, es más probable que el misil vuelva a blocarse contra una de las bengalas que se disparan simultáneamente. El problema es que, si este truco no sale bien, la guía del misil tiene una fuente infrarroja inmejorable en la propia contramedida, típicamente fijada al objetivo. Los misiles modernos están diseñados para hacer un blocaje contra el perturbador (lock-on-jam) en cuanto detectan esto, conduciendo a un derribo prácticamente seguro.

DRCM Sukhogruz montada en la cola de un Sukhoi Su-25T.

Otra DRCM: la Sukhogruz, montada en la cola de un Sukhoi Su-25T.

Para mejorar esto se están creando nuevas contramedidas, las DRCM y CRCM, que utilizan a su vez un sensor infrarrojo para detectar el calor del misil en aproximación y un láser para inducirle directamente las señales espurias en el sensor. Y los diseñadores de guías infrarrojas para misiles disponen ya de nuevas técnicas con el propósito de suprimirlas e incluso aprovecharlas. En general, el más mínimo cambio o error puede transformar una de estas contramedidas por emisión (IRCM, DRCM, CRCM) en una estupenda baliza infrarroja que atraiga al misil con mucha más eficacia que si no se estuviera usando; por ello, el uso de estas contramedidas debe medirse cuidadosamente, caso por caso y situación por situación.

Guías activas.

Como hemos visto, las guías pasivas dependen de las emisiones inherentes al blanco para perseguirlo hasta su destrucción. Son extremadamente eficaces y, más importante todavía, no se delatan de ninguna manera hasta que ya están prácticamente encima del objetivo. Sin embargo, tienen sus limitaciones. Aunque resultan óptimas para atacar blancos que emiten intensamente (como un radar terrestre o áereo, tipo AWACS), presentan más problemas a la hora de perseguir objetivos que no emiten tan intensamente de manera natural. Por ello, los misiles infrarrojos más avanzados y de mayor alcance pueden atacar a un máximo de 40 km aproximadamente. A distancias superiores, las emisiones inherentes al blanco se disipan demasiado como para poderse detectar.

La solución resulta obvia: forzar al blanco a emitir con más intensidad o al menos de una manera que se pueda localizar a mayor distancia. Esto se consigue realizando nosotros una emisión que rebote en el blanco y retorne a nuestros receptores: el radar en el aire (aprovechando la mejor difusión aérea de las ondas electromagnéticas), el sonar bajo el agua (aprovechando la mejor difusión submarina de las ondas sonoras). Ya dijimos más arriba que todo lo que emite voluntariamente está en modo activo; y, en el momento en que lo hace, se puede detectar a su vez.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400.

Componentes de un sistema antiaéreo ruso Almaz-Antey S-400, que entró en servicio en 2007. De izquierda a derecha, vehículo de mando 55K6E, radar móvil de adquisición 96L6, radar móvil de tiro 92N2E y vehículo TEL lanzamisiles 5P85TE2. Además de este "set básico", hay otros componentes adicionales, entre ellos el radar pasivo ucranio Kolchuga. El S-400 podría atacar blancos hasta a 400 km de distancia con el misil hipersónico 40N6.

Los sistemas de telelocalización y seguimiento activos presentan una ventaja sustancial: yo controlo las características de la señal, lo que incrementa enormemente el alcance y precisión a largas distancias. Todas las guías pasivas tienen que pelearse con un montón de incertidumbres sobre la naturaleza del blanco y las señales que emite bajo una multitud de circunstancias distintas; por ello, sólo se aclaran bien a una distancia relativamente corta, donde esas señales llegan ya con mucha nitidez e intensidad. Usando un radar o un sonar, en cambio, obligo al objetivo a reflejar y re-emitir una señal conocida y bien determinada cuyas alteraciones puedo estudiar para mayor información.

Y la desventaja ya mencionada: todo sistema activo se delata a sí mismo al menos al doble de distancia de la que puede detectar y/o atacar. En el campo de batalla moderno, encender un radar (o cualquier otro transmisor) equivale a chillar: «¡estoy aquí!». En la actualidad existen los llamados radares de baja probabilidad de intercepción («radares furtivos»), como los que equipan el caza norteamericano F-22 Raptor (el AN/APG-77) o los antiaéreos rusos S-300PMU2 y S-400. Estos «radares furtivos» utilizan una diversidad de técnicas para reducir la posibilidad de que los detecten, localicen o ataquen, como el uso de onda continua con ancho espectral ampliado mediante rápidos saltos de frecuencia, reducir la potencia al mínimo imprescindible, usar un haz muy estrecho con gran control sobre los lóbulos laterales y posteriores o introducir los llamados radares pasivos (que no son un verdadero radar porque no emiten nada, pero pueden detectar señales emitidas por otros a grandes distancias).

Guía por radar activo del R-77 original.

Guía por radar activo del R-77 (RVV-AE, AA-12 Adder) original de 1994 (MAKS 2009).

Existen dos grandes categorías de misiles con guía radar: los activos y los semi-activos. Los misiles activos son del tipo «dispara y olvida» por completo: van provistos de su propio radar y lo usan para localizar y perseguir al blanco. Normalmente van equipados con un sistema adicional de navegación inercial, para recorrer partes de su trayectoria sin delatarse encendiendo el radar. Entre estos se encuentran algunos de los misiles más conocidos: los aire-aire de alcance medio AMRAAM y R-77 o antibuques como el Exocet,  el Harpoon o el Raduga Kh-15.

Estos misiles tan chulos y famosos tienen un problema: son pequeños. Más exactamente: sus antenas son pequeñas para que quepan en ese diámetro, y tampoco pueden cargar una enorme cantidad de electrónica, al menos en comparación con sus blancos. Por ello, cuando el «dispara y olvida» no resulta estrictamente necesario, se utilizan guías semiactivas. En una guía semiactiva, la señal principal es suministrada por un radar grande (un radar terrestre, naval o aéreo; por ejemplo, el radar del avión lanzador o un AWACS) y el misil se limita a captar el rebote y dirigirse hacia él. Así son, por ejemplo, los famosos antiaéreos Patriot y S-300/S-400. Ambos utilizan diversas combinaciones de modos semiactivos y activos; en la más básica, el misil es guiado hacia su blanco por una señal semiactiva emitida por sus potentes emisores terrestres  o áereos y usa su propio radar sólo para la aproximación final (homing).

La contramedida más antigua frente a este tipo de sensores es el chaff, ya utilizado contra los primeros radares, durante la Segunda Guerra Mundial. Sigue siendo sorprendentemente eficaz, y hasta los ICBM más avanzados lo incorporan tal cual o en forma gaseosa. Básicamente, se trata de cintas o hilillos metálicos que producen una miriada de rebotes en el radar, haciendo desaparecer la imagen en una neblina de incertidumbre. O, cuando se usa en un vehículo, generando un «segundo blanco» producido por los reflejos de la nube de chaff detrás del auténtico.

Casi setenta años después, sigue sin existir un método totalmente seguro para contrarrestar la eficacia del chaff. El más básico es medir la velocidad de los blancos detectados: la nube de chaff tiende a decelerar rápidamente detrás del blanco, lo que ayuda a distinguirla. Esto funciona bien con aviones pero mal con objetivos más lentos, como los barcos. Otro método consiste en hacer que el buscador del misil reaccione sólo ante las señales que proceden de un pequeño espacio alrededor del blanco, ignorando así el chaff que queda detrás; pero esto, además de reducir las capacidades todo-aspecto del buscador, se puede confundir utilizando lo que se llama un gate-stealer, que desplaza la señal rebotada por el blanco hacia la nube de chaff.

Este gate-stealer (¡es que no hay forma de traducirlo!) es una de las varias contramedidas posibles contra un misil guiado por radar. Casi todas ellas se basan en inducir señales falsas en el radar atacante y adolecen del mismo problema que ya vimos en los infrarrojos: cuando funcionan bien, funcionan muy bien; pero cuando funcionan mal, constituyen una emisión adicional que regala al misil un blanco perfecto (home-on-jam). Y, claro, no es posible predecir cuándo va a salir bien y cuándo va a salir mal.

En los años ’80 del pasado siglo, el misil francés Exocet se labró una fama curiosa atacando con éxito diversos buques civiles y militares; estos últimos iban equipados, obviamente, con numerosas contramedidas. Durante la Guerra de las Malvinas (1982), el destructor británico HMS Sheffield resultó destruido por uno de estos misiles y el HMS Glamorgan, gravemente dañado a manos de otro. También destruyeron al portacontenedores MV Atlantic Conveyor, cargado hasta las antenas con material militar, y los argentinos juran y perjuran que lograron al menos un impacto parcial en un portaaviones. Sea cierto esto último o no, el Exocet fue la única arma verdaderamente eficaz para la Argentina durante este conflicto. Tanto el Sheffield como el Glamorgan y los portaaviones estaban provistos con lanzadores de chaff, contramedidas electrónicas diversas y primitivos misiles anti-misil Sea Dart.

Durante la Guerra entre Irán e Iraq (1980-1988) Saddam era aún uno de nuestros chicos y estaba provisto con gran cantidad de armamento occidental. Sus misiles Exocet causaron una pesadilla en la navegación del Golfo Pérsico que vino a conocerse como la Guerra de los Petroleros; entre otros, hundieron al buque más grande jamás construido, un superpetrolero ULCC entonces llamado Seawise Giant. El 17 de mayo de 1987, un Mirage F1 iraquí –aparentemente por error– le endiñó dos de estos Exocets a la fragata estadounidense USS Stark, matando a 37 ocupantes. El gringo no se hundió por el sencillo hecho de que le arrearon bastante por encima de la línea de flotación y sus tripulantes lograron hacerse con los incendios y las vías de agua, pero el buque había quedado inutilizado por completo y la chapa y pintura costó 142 millones de dólares. La USS Stark iba provista con un sistema de defensa terminal Phalanx, un módulo de chaff y contramedidas automatizadas SRBOC, así como misiles Standard con posible uso marginal como defensa antimisil. Le sirvieron de lo mismo que al Sheffield y al Glamorgan: de nada.

La fragata estadounidense USS Stark escora tras ser alcanzada por dos misiles Exocet.

La fragata estadounidense USS Stark escora a babor tras ser alcanzada por dos misiles iraquíes Exocet de fabricación francesa, el 17 de mayo de 1987. (US Navy)

¿Cuál fue la clave del éxito del Exocet? Fácil: ninguno de sus blancos lo vio llegar. En todos los casos, el único preaviso fue un marinerito berreando despavorido aquello de «¡misil por babor!». Bueno, en todos no: el Glamorgan pudo detectarlo por radar en el último momento, lo que le permitió ejecutar un brusco viraje para ponerle la popa. Así, el Exocet sólo le atizó en el hangar de helicópteros, haciendo estallar al Westland Wessex que estaba dentro, provocando un fuerte incendio y matando a trece tripulantes. Pero logró alejarse, renqueando.

¿Cómo es posible que no lo vieran llegar? Bueno, es que el Exocet es un misil rozaolas (sea-skimming). Y, diga lo que diga la propaganda habitual, los misiles rozaolas eran y siguen siendo muy difíciles de detectar con tiempo suficiente para hacer algo. Es que la Tierra es curva, sabeusté. Cuando algo vuela a muy poca altitud, queda por debajo del horizonte según se ve desde su objetivo, y eso vale tanto para los ojos como para el radar. Al aproximarse por debajo del horizonte radar, el Exocet simplemente no es detectado hasta que está ya encima como quien dice. Y si ya está encima, como recitamos en román paladino, te queda el tiempo justo para besarte el trasero y decirle adiós.

Lo que nos conduce a la defensa más eficaz en guerra moderna: que no te vean, ve tú al enemigo antes que el enemigo a ti. Esto ha sido efectivo desde siempre, pero en la actualidad es ley e incumplirla se castiga con la muerte. Atrás quedaron los tiempos de andar buscándose las vueltas con clarines, trompetas y banderones. Si puedes ver al enemigo antes de que el enemigo te vea a ti, puedes dispararle antes de que te disparen a ti. Y si tu arma hace lo que tiene que hacer, es probable que ellos sólo la vean llegar cuando ya estén a punto de comérsela sin patatas ni nada.

Para que no te vean, lo más eficaz es mantenerse disimulado en el ruido de fondo hasta que llegue el momento de atacar. Con las tecnologías de detección contemporáneas, mantenerse oculto por completo resulta casi siempre muy difícil e incluso imposible. Pero un buen camuflaje, una buena maskirovka, puede obrar efectos asombrosos. Disimularse en el ruido suele ser mucho mejor que pretender absurdamente que no estás allí en absoluto. La otra alternativa es, obviamente, mantenerse a distancia suficiente e ir recopilando pacientemente la información necesaria para lanzar un buen ataque por sorpresa desde fuera del alcance del enemigo.

En general, la espada ha demostrado históricamente ser mucho más poderosa que el escudo. La espada elige arma, táctica, espacio y tiempo; el escudo tiene que permanecer ahí todo el rato, gastando energía y recursos, esperando a ver si viene alguien o no, siempre expuesto a discreta observación y análisis para hallar sus puntos débiles. Los misiles, la última evolución de la flecha o la lanza, se acoplan perfectamente a este papel de espada. La única defensa segura es inutilizarlos antes de que lleguen a atacar, o mantenerse lejos de su radio de acción. Una vez en el aire, resultan muy difíciles de detener y su efecto es devastador. Por eso y por lo que decía al principio, los veremos cada vez más, durante mucho tiempo más.


Ejercicios de tiro con antiaéreos S-300 (ca. año 2000).

76 Comentarios Trackbacks / Pingbacks (15)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (63 votos, media: 4,92 de 5)
Loading...
Be Sociable, Share!

El error de un Nobel que condenó el proyecto atómico nazi

Una demostración palmaria de lo importante que resulta la verificación independiente en ciencia.

Los documentos secretos del proyecto atómico nazi.

Para este post contamos con los documentos secretos originales del programa nuclear de la Alemania nazi, que no fueron desclasificados por sus posteriores propietarios hasta muchos años después. En el Deutsches Museum, Munich.

Fueron muchas las razones científicas, políticas, materiales y humanas por las que la Alemania nazi no produjo nunca una bomba atómica. Entre ellas, que no creyeron poder alcanzarla antes del fin de la Segunda Guerra Mundial y por tanto dedicaron sus esfuerzos a otras cosas más perentorias. Vamos, que no llegaron a proponérselo en serio y la historia siguió adelante por los caminos que ya conocemos.

Sin embargo, el asunto tiene aguijón: parte de esta dejadez  en materia atómica obedeció a un error científico crucial, pero fácilmente subsanable con una mera verificación independiente. Tal verificación no se produjo y el error, cometido por un futuro premio Nobel, les hizo creer que la energía nuclear estaba mucho más lejos de lo que quizá podría haber estado. ¿Pudo ser diferente? ¿Existió alguna posibilidad de que el Tercer Reich consiguiese la bomba atómica y con ello cambiara el curso de la historia?

El submarino U-202 de la Kriegsmarine.

El submarino U-202 de la Marina de Guerra nazi. El 12 de junio de 1942, este navío desembarcó con éxito a un equipo de saboteadores en Long Island, Nueva York. Seis días después, el U-584 hizo lo propio cerca de Jacksonville, Florida. Aunque los saboteadores fueron traicionados antes de alcanzar sus objetivos, ambos buques habían cumplido su misión y regresaron sin novedad a su base en Brest. Durante 1942 y 1943 hubo más de veinte submarinos alemanes operando en el Golfo de México hasta la misma boca del Mississippi. Y en fecha tan tardía como el 5 de mayo de 1945, dos días antes de la rendición, el U-853 torpedeó aún a un último mercante norteamericano enfrente de Rhode Island antes de ser hundido a su vez. Cualquiera de ellos podría haber transportado a bordo una primitiva bomba atómica con destino a la Costa Este de los Estados Unidos.

El club del uranio.

Werner Heisenberg, permio Nobel de física 1932, en una fotografía de 1933.

Werner Heisenberg, premio Nobel de física 1932, en una fotografía de 1933. Heisenberg, como director del Instituto de Física Kaiser-Wilhelm de Berlín durante la Segunda Guerra Mundial, fue la cabeza más visible de las investigaciones nucleares en la Alemania nazi.

El 3 de julio de 1967, veintidós años después de que terminara la Segunda Guerra Mundial, el físico teórico alemán Werner Heisenberg concedía una entrevista a un profesor de universidad estadounidense en la que hizo varias declaraciones sorprendentes para muchas mentalidades:

Ya al principio, sospechamos que si era realmente posible hacer explosivos [atómicos], tomaría tanto tiempo y requeriría un esfuerzo tan enorme que había una muy buena probabilidad de que la guerra terminase antes de lograrlo.

Cuando tuvimos éxito en el experimento L-4, cuando supimos que podíamos hacer reactores y, gracias al trabajo de Weizsacker, que así se podía hacer plutonio o algo parecido, supimos que en principio éramos capaces de crear bombas atómicas.

Pero aún así no hicimos ningún esfuerzo serio en ese dirección. Hablemos en serio: si queríamos fabricar el agua pesada necesaria, nos costaría de uno a tres años conseguir suficiente cantidad. Producir plutonio bastante se tomaría otros tres años. Así que, con la mejor conciencia del mundo, le dijimos al gobierno: «no será posible hacer una bomba hasta al menos dentro de cinco años.»

Ya sabíamos que prohibirían cualquier nuevo desarrollo que no pudiera usarse durante el año siguiente o así. Estaba claro que iban a decir: «¡No, no! ¡No dediquemos esfuerzos a la bomba atómica!». Y eso fue lo que pasó.

El líder más destacado del programa atómico alemán nos está diciendo que, básicamente… no hubo un proyecto atómico alemán digno de tal nombre. Que en la carrera por la bomba, Estados Unidos estuvo esencialmente solo a pesar de todos los temores geniales emigrados allí huyendo del nazifascismo. Y además, apostilla:

La decisión de no hacer bombas [atómicas] tomada por nuestro gobierno fue muy sensata. Habría sido muy sensata incluso para el gobierno de ustedes, porque podrían haber ganado antes la guerra contra Alemania si no se hubieran puesto a hacer bombas. No hay ninguna duda sobre esto: si ustedes hubieran dedicado todo ese esfuerzo a hacer aviones y tanques y demás, la guerra habría terminado antes. Esto puede no ser cierto en el caso de Japón, porque la guerra contra Japón era distinta; pero si hablamos sólo de la guerra contra Alemania, esto es un hecho.

Uno podría pensar que Heisenberg trata de limpiar su biografía con estas palabras. Nosotros no hacíamos nada malo, nosotros no sabíamos nada de lo que pasaba y todo ese rollo. Lo que pasa es que las pruebas hablan fehacientemente en su favor. O, mejor dicho, la ausencia de pruebas. Por toda la Alemania derrotada, tanto la misión Alsos norteamericana como su versión soviética sólo encontraron indicios de unas investigaciones dispersas, poco decididas, apenas dotadas de recursos y orientadas fundamentalmente a la construcción de reactores experimentales… ninguno de los cuales logró alcanzar masa crítica. Los documentos, los testimonios, las pruebas materiales: todo indica que Alemania en ningún momento se planteó seriamente el desarrollo de armamento nuclear. La carrera por la bomba no existió.

¿Cómo puede ser tal cosa? Vamos, en serio, los nazis no eran precisamente unos pacifistas ni gente tiquismiquis ante el derramamiento de sangre ajena. Resulta francamente dudoso que los fundadores de Auschwitz, Treblinka o Sobibor, los autores del Generalplan Ost que quiso exterminar a los infrahombres del este tanto como a los judíos, los gitanos o los comunistas, hubieran dudado mucho a la hora de volar por los aires a algún millón de personas con bombas atómicas. Heisenberg ya nos apuntaba un motivo de los dirigentes nazis para descartar esta opción: la muy dudosa posibilidad de construir un arma nuclear antes del fin de la guerra. Este premio Nobel alemán, en la entrevista mencionada, aún sugiere alguna más:

Había, por supuesto, una intención muy clara por nuestra parte: teníamos que impedir que nos implicaran en un gran esfuerzo para hacer bombas atómicas. Lo que queríamos era conseguir el dinero justo para seguir adelante con nuestro proyecto de reactor, pero nada más. Teníamos mucho miedo de que, en otro caso, alguien dijera: «Ahora, vamos a por la bomba atómica.» […] Esto salió como esperábamos. Definitivamente, no queríamos que nos metieran en este asunto de la bomba.

No quiero idealizar esta cuestión: lo hicimos también por nuestra seguridad personal. Pensábamos que la probabilidad de que esto condujera al desarrollo de bombas atómicas durante la guerra era casi cero. Si no hubiéramos actuado así, y si se hubiese puesto a trabajar a miles de personas en ello sin resultados… podría haber tenido consecuencias extremadamente desagradables para nosotros.

Equipo con el que se descubrió la fisión en Alemania, 1938.

Experimento con el que Lise Meitner, Otto Hahn y Fritz Strassmann descubrieron la fisión del núcleo atómico en Alemania, 1938. Deutsches Museum, Munich. (Clic para ampliar)

¿Y la dirigencia nazi no se olió nada? Es decir, numerosos científicos y algunos políticos y militares venían hablando ya del advenimiento de la energía nuclear desde antes de la guerra. ¡Pero si Otto Hahn y Lise Meitner habían descubierto la fisión nuclear en la misma Alemania nazi, siendo 1938! El 22 de abril de 1939 Georg Joos y Wilhelm Hanle comunicaron a Abraham Esau –director de la división de física del Consejo de Investigaciones del Reich– las posibles aplicaciones militares de la fisión del átomo. Apenas dos días después Paul Harteck, asesor científico de la Oficina de Municionamiento del Reich, hacía lo propio dirigiéndose al estamento militar. El 29 del mismo mes, un montón de físicos se reunieron en el Ministerio de Educación para considerar todas estas cuestiones, fundando así el primer Uranverein: el club del uranio. Tenían a Hans Geiger, el del contador Geiger. Manfred von Ardenne iba por su cuenta, investigando la separación de isótopos con el apoyo entusiasta del ministro de Correos nazi Wilhelm Ohnesorge. Todo en el más riguroso secreto… pero, en los ámbitos del poder nazi, un secreto a voces. Evidentemente, el Führer y sus lugartenientes tanto políticos como militares tenían que estar al tanto de lo que se cocía en materia atómica; aunque fuera por encima.

Es más. En junio el químico nuclear Nikolaus Reihl, director científico de la empresa Auergesellschaft, se puso también en contacto con la Oficina de Municionamiento del Reich para comunicarles que la compañía estaba en posesión de una respetable cantidad de basura de uranio como resultado de su producción de radio. Y que si estaban interesados, podían ponerse a procesar este uranio, obtenido en las minas de la Checoslovaquia ocupada. Estuvieron interesados y pronto abrían la planta de Oranienburg, al norte de Berlín, que produciría óxido de uranio y otros metales de interés hasta casi el final de la guerra.

El 1 de septiembre de 1939 estalló la Segunda Guerra Mundial, sin pillar por sorpresa a casi nadie: desde años atrás, estaba cantado que se avecinaba algo gordo. Ese mismo día se fundaba el segundo Uranverein bajo los auspicios del Consejo de Investigaciones del Reich, ahora en manos militares. El 19 de este mes, mientras las últimas tropas polacas caían ante la Wehrmacht en la Batalla de Buzra, los científicos atómicos alemanes del segundo club se reunían en secreto por primera vez. Poco después el Instituto de Física Kaiser-Wilhelm y el Instituto Max Planck, las dos instituciones más relevantes de Alemania en asuntos relacionados con la física avanzada, pasaban también a la jurisdicción militar. Sabían que el isótopo uranio-235 era la clave de todo aquel asunto y que había otro aún más prometedor, no presente en la naturaleza pero descubierto igualmente en Alemania: un cierto eka-osmio, al que hoy en día llamamos plutonio.

Werner Heisenberg en 1940.

Werner Heisenberg en 1940, poco antes de descubrir que podía construir un reactor nuclear. Deutsches Bundesarchiv.

En el mes de diciembre, el profesor Heisenberg –por entonces, aún en la Universidad de Leipzig– descubrió con gran emoción que era posible construir un reactor nuclear de uranio-235, que se estabilizaría a sí mismo en torno a 800ºC de temperatura operacional. En los últimos días de 1939, Heisenberg escribía una carta a la Oficina de Guerra del Reich que terminaba así:

Conclusiones: Según las evidencias actuales, el proceso de fisión del uranio descubierto por Hahn y Strassmann puede utilizarse para la producción de energía a gran escala. El método más seguro para construir un reactor capaz de hacer esto sería enriquecer el isótopo uranio-235. Cuanto más alto sea el grado de enriquecimiento, más pequeño se puede hacer el reactor. El enriquecimiento de uranio-235 es la única manera de conseguir que el volumen del reactor sea pequeño, comparado con un metro cúbico.

Es, además, el único método de producir explosivos varios órdenes de magnitud más potentes que los explosivos más poderosos conocidos ahora.

De todos modos, para la generación de energía se puede usar incluso uranio ordinario, sin enriquecer ei isótopo 235, si se utiliza en conjunción con otra sustancia que ralentice los neutrones del uranio sin absorberlos. El agua no es apropiada para esto. Por el contrario, el agua pesada y el grafito muy puro podrían bastar según las evidencias actuales. Las impurezas más minúsculas siempre pueden impedir la generación de energía.

Vaya. Cualquiera diría que en esos momentos de finales de 1939, el buen doctor Heisenberg no tenía tan claro eso de omitir las posibilidades explosivas del invento. Por otra parte, también especifica claramente la necesidad de un moderador neutrónico y las mejores opciones para obtenerlo: el carbono ultrapuro en forma de grafito y el agua pesada. A mediados de 1940 se realizaron varios intentos de construir pequeños reactores en Berlín-Dahlem, demasiado primitivos para funcionar (llegaron a intentar el uso del papel como moderador). En la siguiente carta de Georg Joos a la Oficina de Municionamiento del Reich, fechada en marzo de 1940, ya se plasman las necesidades de pureza del carbono para su uso en reactores nucleares. Pero, ¿qué es esto de un moderador neutrónico?

Carta de Georg Joos sobre el carbono

Carta de Georg Joos a la Oficina de Municionamiento del Reich explicando los detalles de pureza del carbono para constituir grafito de uso nuclear. Se especifican con detalle las proporciones máximas de boro, un poderoso absorbente neutrónico que altera las propiedades de la reacción en cadena. Deutsches Museum, Munich. (Clic para ampliar)

Moderadores neutrónicos.

Reacción en cadena

Reacción en cadena por fisión del núcleo atómico. Para sostenerla con uranio poco enriquecido, hay que reducir la energía de los neutrones rápidos y convertirlos en neutrones térmicos. Esto lo hace el moderador. (Clic para ampliar)

En la reacción en cadena, los neutrones producidos durante la fisión del núcleo atómico provocan nuevas fisiones en los átomos de alrededor. Si hay suficiente masa de material fisible para que estos neutrones se encuentren con algo útil –la masa crítica–, entonces la reacción es capaz de sostenerse a sí misma, generando más energía y más fisiones. En los explosivos nucleares esta reacción es muy rápida, utilizando uranio-235 o plutonio-239 muy enriquecidos sin moderación de ninguna clase, buscando un pico de energía instantánea. Sin embargo, en un reactor nuclear ocurre lo contrario: se desea una reacción en cadena eficiente, económica y progresiva, que funcione con una proporción baja de material fisible y a ser posible usando uranio natural (uranio refinado y concentrado, pero con la misma proporción isotópica que se da en la naturaleza). En aquellos tiempos resultaba aún más importante: la cantidad de uranio disponible era baja y las posibilidades de enriquecerlo, endiabladamente difíciles y costosas usando la tecnología de la época.

Resulta que durante la fisión la mayor parte de los neutrones se emiten en forma de neutrones rápidos, muy energéticos. Se podría pensar que esto es estupendo para provocar nuevas fisiones que aseguren la reacción en cadena, pero… resulta que no va así. La fisión del núcleo atómico se produce mejor cuando es alcanzado por neutrones térmicos, menos energéticos. Dicho en términos sencillos, los neutrones rápidos «pasan demasiado deprisa» para producir una reacción eficaz, mientras que los térmicos lo hacen a la velocidad adecuada. Por tanto, la construcción de un reactor nuclear eficiente exige decelerar estos neutrones rápidos; la sustancia encargada de tal cosa es el moderador. Entre los mejores moderadores neutrónicos se encuentran, como predijeron Heisenberg y otros, el grafito y el agua pesada.

Sin embargo, esta sustancia no debe ser tan efectiva que tienda a frenarlos por completo, porque en ese caso ya no tenemos un moderador sino un absorbente neutrónico que captura los neutrones e interrumpe la reacción. Entre estos tenemos, por ejemplo, al cadmio o el boro. Esta «resistencia al paso de los neutrones» se puede medir de varias maneras. Una de ellas es la longitud de absorción, difusión o atenuación, que indica la probabilidad de que una partícula no sea absorbida durante su paso por estas sustancias. Para construir un reactor con uranio natural, sin enriquecimiento alguno, la longitud de difusión en el moderador debe estar aproximadamente entre cuarenta centimetros y un metro y pico. Si es mayor, no provocará la atenuación necesaria y la reacción en cadena no llegará a producirse. Si es menor, la sustancia actuará como absorbente neutrónico y la detendrá por completo. La longitud de difusión mínima para un moderador básico de uranio natural está en 37 cm.

Agua pesada de Norsk Hydro

Agua pesada de Norsk Hydro al 99,6%. En toda Europa no había ninguna otra instalación donde se produjera en las cantidades industriales precisas. (Clic para ampliar)

El agua pesada es H2O con los átomos de hidrógeno corriente sustituidos por átomos de deuterio; es decir, 2H2O (o D2O, óxido de deuterio). Con una longitud de difusión de 116 cm, constituye un excelente moderador neutrónico. Pero presenta varios problemas de orden práctico. Fundamentalmente es difícil, costosa y complicada de producir; y no te digo ya con el grado de pureza necesario (más del 99%), por lo que en último término sale cara de narices y llega con cuentagotas. Tanto, que en tiempos de los nazis sólo había una fábrica en Europa que la produjese, y eso gracias a un acúmulo de casualidades y rarezas: la planta de Norsk Hydro en Vemork, Noruega. Desde 1927 Norsk Hydro mantenía una sociedad con el inmenso consorcio químico alemán IG Farben y además Noruega fue invadida por los nazis en abril de 1940, con lo que gozaban de libre acceso a este recurso. Pero eso no hacía que el agua pesada resultase más económica, fácil o rápida de producir. Además, había que transportarla en un complicado viaje hasta los laboratorios atómicos alemanes.

El grafito, en cambio, es básicamente carbono y hay por todas partes. Al principio cuesta un poco de producir con el grado de pureza exigido, que es puñetero, pero después sale por toneladas en forma de bloques económicos fáciles de manejar, transportar y utilizar. Por ello, todos los primeros reactores construidos por todas las potencias nucleares fueron de uranio natural moderado por grafito. Cuando partes de cero, ese es el camino más rápido, barato y directo para obtener energía nuclear y armas atómicas.

¿Y el reactor, para qué?

A todo esto, ¿para qué necesitamos un reactor si queremos hacer bombas? Pues por dos motivos fundamentales. El primero es que sin un reactor operativo hay una serie de detalles sobre el funcionamiento íntimo del núcleo atómico que no se pueden aprender; y sin esos detalles, tendrás que construir tu arma nuclear a ciegas en una montaña de consideraciones técnicas importantes. Y el segundo, para producir plutonio en cantidad fácil y rápidamente.

Hay, esencialmente, dos aproximaciones para fabricar tu primera bomba atómica. Una es pillar mineral de uranio y enriquecerlo una y otra vez hasta que obtienes decenas de kilos del preciado isótopo uranio-235 para hacer una bomba del tipo de la de Hiroshima. Esto es un lío, cuesta una fortuna y encima ese tipo de bomba es un rollo, un arma muy limitada. Hubo un momento en que, para realizar este proceso, la planta norteamericana de Oak Ridge consumía la sexta parte de toda la energía eléctrica producida en los Estados Unidos. La Alemania nazi no podía permitirse semejante cosa ni por casualidad, ni en Oranienburg ni en ninguna otra parte.

El reactor B de Hanford.

El reactor B de Hanford, donde se produjo el plutonio estadounidense para Trinity, Nagasaki y numerosas armas de posguerra, era de uranio natural moderado por grafito.

Ni falta que hace. Los americanos es que fueron por las dos vías a la vez, pero la gente que sabe lo que quiere y cómo conseguirlo a un precio justo opta siempre por el plutonio. El plutonio resulta enormemente más práctico como arma que el uranio; cuesta mucho menos de producir y separar; permite más fácilmente el diseño de armas más avanzadas; y no necesitas instalaciones tan grandes, caras y conspicuas. Por eso la primera bomba atómica fue de plutonio, la de Nagasaki fue de plutonio, la primera de los soviéticos fue de plutonio  y hoy en día todas son de plutonio total o parcialmente. Hágame caso, joven: para jugar a los soldaditos atómicos, uranio kk, plutonio mola. Y de buen grado o a la fuerza, a Alemania no le quedaba otra que ir por la vía del plutonio.

El plutonio sólo tiene un par de pejiguerías, y una de ellas es que no se da en la naturaleza. Estamos ante un elemento sintético que hay que producir por completo. Sólo hay una manera de hacerlo a escala industrial: con un reactor nuclear. Es muy sencillo. Bueno, bastante sencillo. Metes uranio natural, que está compuesto fundamentalmente por uranio-238 con una pequeña proporción de uranio-235. El uranio-235 es fisible, el -238 no (en condiciones normales). Entonces le das mecha al reactor. El -235 empieza a fisionar en cadena y una parte de sus neutrones alcanzan al -238. Pero ya hemos dicho que el -238 no puede fisionar, así que los va absorbiendo y al hacerlo se convierte en uranio-239. El uranio-239 es virulentamente inestable y en cuestión de minutos decae a neptunio-239, que tampoco está muy p’acá y transmuta en… ¡tachán! ¡Nuestro deseado plutonio-239! Todo esto ocurre en cadena, sin ningún esfuerzo adicional. De lo único que tienes que llevar cuidado es de que no se te desmande el reactor (por la acumulación de un nuevo material fisible, el propio plutonio-239) y de no acumular mucho plutonio-240, que a este nivel sólo sirve para tocar las narices. Yendo por el camino del plutonio consigues una bomba mejor, antes y con más posibilidades. Todo son ventajas.

Pero necesitas un reactor. Aunque sea un reactor experimental del año de la picor. Sin reactor no hay plutonio (ni electricidad, en las aplicaciones civiles de la energía nuclear). A todos los efectos prácticos de la Alemania nazi, sin reactor no hay bomba, ni programa nuclear ni nada.

Así pues, no quedaba otra que construir un reactor. Tenían los conocimientos, tenían los especialistas, tenían las materias primas (no muchas, pero tenían) y dos opciones para el moderador: el agua pesada, difícil, remota y cara; y el grafito, fácil, cercano y barato (¡será por carbón en Alemania!). ¿Con cuál te quedarías tú? Exacto: a diferencia de todos los demás, eligieron el agua pesada. Pero, ¿por qué?

Opciones tecnológicas para el desarrollo de las primeras armas nucleares

Opciones tecnológicas para el desarrollo de las primeras armas nucleares 1940-1960. (Clic para ampliar)

Walther Bothe en Stuttgart, 1935.

Walther Bothe durante una reunión de físicos en Stuttgart, 1935.

Un pequeño error para un hombre, un gran golpe para el proyecto atómico nazi.

Aunque Heisenberg estaba convencido por motivos teóricos de que tanto el grafito como el agua pesada valían de moderador neutrónico, resultaba preciso verificarlo experimentalmente y determinar cuánto con absoluta precisión. Con exactitud germánica, como si dijéramos. Del agua pesada se encargó él mismo, en colaboración con el matrimonio Robert y Klara Döpel. Debido a la importancia de este estudio, el grafito lo estudiaría otro físico prestigiosísimo distinto, con quien Heisenberg sustentaba alguna rivalidad: el doctor Walther Bothe de Heidelberg, director de la unidad de física del Centro de Investigaciones Médicas Kaiser-Wilhelm, padre del primer acelerador de partículas alemán digno de tal nombre y futuro premio Nobel. Si te crees más capaz que él, siempre puedes levantar la mano y ofrecerte voluntario, kamerad.

Esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito.

La esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito, a finales de 1940. En Walther Bothe, «La Longitud de difusión de los neutrones térmicos en el electrografito», fechado el 20 de enero de 1941, Kernphysikalische Forschungsberichte (G-71). Deutsches Museum, Munich.

Además, el doctor Bothe tenía experiencia en la materia. Entre otros trabajos relativos al uranio como combustible para obtener energía nuclear, el 5 de junio de 1940 ya había realizado el correspondiente estudio sobre una muestra de carbono común, concluyendo que su longitud de difusión ascendía a 61 cm. Esto es: bien por encima del límite mínimo de 37 cm y más de la mitad que el agua pesada, situada convencionalmente entre 100 y 116 cm. Pensaba que esa cifra de 61 cm aún podía mejorarse, porque su muestra de carbono estaba bastante contaminada con calcio, magnesio y otras cosas que alteran el resultado; según sus estimaciones, al usar grafito ultrapuro podría llegarse a 70 cm. Así lo plasmó en sus conclusiones:

…siguiendo [el dato] G1.(3) la absorción es del 6% con una longitud de difusión de 61 cm. Esto se acerca bien al valor de 70 cm, donde Heisenberg ha demostrado que es posible la Máquina [el reactor] […]. Con el límite de error estimado, queda determinada en el límite mínimo de la longitud de difusión (37 cm). […] Usando carbono puro, la longitud de difusión podría ser mayor que 70 cm, con una sección eficaz de captura inferior a 0,003 x 10-24.

En todo caso, se precisan más experimentos con el carbono. Parece que la idea es ensamblar inmediatamente una Máquina juntando Preparado 38 [uranio] y carbono. El carbono puro podría obtenerse, por ejemplo, mediante las vías propuestas por Joos, para después llevarlo al método del electrografito hasta una densidad de 1,5.

–Walther Bothe, «La Longitud de difusión de los neutrones térmicos en el carbono». Fechado el 5 de junio de 1940, Kernphysikalische Forschungsberichte (G-12).

Así pues, durante las últimas semanas de 1940 el doctor Bothe de Heidelberg se puso a la labor junto con Peter Jensen y algunos estudiantes universitarios de confianza reclutados como ayudantes. Con el máximo secreto, montaron en un sótano del Centro de Investigaciones Médicas un apparat para realizar la medición usando electrografito de la máxima calidad suministrado por Siemens-Plania: el mejor grafito que se podía conseguir en la Alemania del periodo.

Este dispositivo era básicamente una esfera de 110 cm de diámetro formada por bloques de este electrografito con una funda exterior de caucho, que se sumergía en un tanque de agua. La esfera estaba provista con una estructura de aluminio en la parte inferior, montada sobre una base de hierro y madera encerada, pero por lo demás era autoportante; en la parte exterior había cintas de cadmio. Por arriba dejaron un canal libre para introducir las sondas y la fuente neutrónica, un preparado de radón-berilio con una actividad de setenta milicurios; este canal se cerraba a continuación introduciendo más grafito en bloques cilíndricos. En un determinado momento del informe que escribiría con posterioridad, Bothe se queja de no tener medios para hacer un montaje más elaborado.

El 20 de enero de 1941, el futuro premio Nobel da a conocer sus resultados entre los miembros del segundo club del uranio con un informe ultrasecreto titulado La longitud de difusión de los neutrones térmicos en el electrografito (W. Bothe y P. Jensen, Die Absorption thermischer Neutronen in Elektrographit, en Kernphysikalische Forschungsberichte G-71). Las mediciones obtenidas hacen empalidecer a más de uno:

[…] se calcula la longitud de difusión:

L = 36 ±2 cm.

El error de Bothe que condenó al programa atómico alemán

El error de Bothe que condenó al programa atómico alemán en su documento secreto original «La Longitud de difusión de los neutrones térmicos en el electrografito», fechado el 20 de enero de 1941. Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich. La verdadera longitud de difusión neutrónica para el grafito son 54,4 cm, no 36 cm.

Así, destacadito, porque el resultado es de lo más sorprendente, contrario a la teoría y un verdadero jarro de agua helada para el programa atómico alemán. Treinta y seis centímetros resultaban radicalmente insuficientes, uno por debajo del mínimo absoluto de 37. Y un gravísimo error: la verdadera longitud de difusión neutrónica en el grafito es de 54,4 cm, muy correcta para un moderador, cosa que en los Estados Unidos midió Szilárd con éxito. Inmediatamente a continuación, Bothe afirma:

Con los [valores] sobre los que se basan los cálculos de Heisenberg se esperaría una longitud de difusión L0 = 61 cm. La longitud de difusión medida es mucho menor y la absorción mucho más fuerte, por lo que el carbono estudiado aquí difícilmente debería tomarse en consideración como un material moderador para la Máquina [el reactor].

La conclusión derivada del error de Bothe

La conclusión derivada del error de Bothe: el grafito no sirve como moderador para un reactor nuclear. Esta creencia errónea no desaparecería hasta los últimos meses de la guerra.

Con todas las letras. Por cierto, que el buen doctor Bothe se nos antoja un poco listillo a la hora de quitarse marrones de encima: cabría recordar que esos «valores sobre los que se basan los cálculos de Heisenberg» son los mismos que él dedujo siete meses antes. Pero da igual: es una catástrofe de todos modos. Tras un cuidadoso análisis de impurezas obtenido quemando una cantidad del carbono para estudiar sus cenizas, determina en las conclusiones:

En todo caso, se puede juzgar a partir del estado presente de la teoría que el carbono [grafito], aunque haya sido manufacturado con los mejores métodos técnicos conocidos y esté libre de impurezas, probablemente no sirve como material moderador para la Máquina en cuestión a menos que se acumule [enriquezca] el isótopo 235.

Conclusión de Bothe

La conclusión final de Bothe, en el mismo documento: el grafito sólo serviría como moderador neutrónico si se usara uranio enriquecido, que Alemania no podía producir en cantidades suficientes y de hecho ningún país utilizó en sus primeros intentos.

Cénit y ocaso del proyecto atómico alemán.

Estas conclusiones fueron devastadoras. Si para Alemania el grafito no servía como moderador y enriquecer uranio resultaba inviable económicamente, entonces la vía del plutonio debía discurrir necesariamente por el camino del agua pesada, largo, caro y complicado. A partir de este momento, el pesimismo comienza a instalarse poco a poco en la comunidad de los científicos atómicos nazis, lo que se va traduciendo en un progresivo desinterés por parte de los dirigentes políticos. Siguiendo a Werner Heisenberg:

[No hubo más interés en el grafito, a pesar de saber que el agua pesada era muy escasa] debido a que el experimento de Bothe no era correcto. Bothe había hecho esta medida del coeficiente de absorción del carbono puro y se le deslizó un error en el experimento. Sus valores eran demasiado altos [en absorción; bajos en difusión] pero asumimos que eran correctos y no creíamos que el grafito se pudiera usar.

Atención de nuevo a las fechas. Las fechas son muy importantes:

Fecha y firma del documento erróneo de Bothe.

Fecha y firma del documento erróneo de Bothe «La Longitud de difusión de los neutrones térmicos en el electrografito». Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich.

Adolf Hitler en París con Albert Speer y Arno Breker.

Adolf Hitler en París con Albert Speer (izda.) y Arno Breker (dcha.), 23 de junio de 1940; Francia se había rendido el día anterior. A principios de 1941, casi toda Europa estaba controlada directa o indirectamente por los nazis. Las grandes batallas contra los Estados Unidos y la Unión Soviética no habían comenzado aún. Todas las opciones políticas y militares permanecían abiertas en esas fechas.

Estamos todavía en enero de 1941. La Europa continental entera, desde el Vístula y el Danubio hasta el Atlántico, está en manos nazis o de amigos de los nazis a excepción de un par de países neutrales: una buena posición para atrincherarse. Aún no han invadido la Unión Soviética, con la que mantienen una paz precaria. Pearl Harbor no ha ocurrido tampoco todavía: los Estados Unidos siguen fuera del conflicto. En estos momentos, sólo el tropezón de la Batalla de Inglaterra empaña los éxitos alemanes. La guerra se lucha ahora mismo en África, lejos de la Fortaleza Europa. Los grandes bombardeos que más adelante aniquilarían las ciudades e industrias alemanas caen de momento principalmente sobre el Reino Unido, a manos de la Luftwaffe. Faltaba más de un año para que el Proyecto Manhattan se pusiera en marcha en serio. Von Braun y los suyos seguían en Alemania. Todas las posibilidades estaban abiertas aún.

¿Qué habría sucedido si Bothe no se hubiera equivocado y alguien hubiese dicho a la dirigencia nazi durante la primavera de 1941: «podemos construir un reactor de grafito y fabricar plutonio, podemos hacer bombas atómicas, consígannos algo de tiempo y uranio; es cosa de cuatro o cinco años, puede que menos si nos dotan con la mitad de los medios que harían falta para invadir la URSS el próximo verano»?

Por supuesto, resulta imposible saberlo. Sí conocemos, en cambio, lo que sucedió en realidad. En estas mismas fechas de 1941, la empresa Auergesellschaft que mencioné más arriba ya había fabricado varias decenas de toneladas de óxido de uranio y Degussa de Fráncfort, los primeros 280 kg de uranio metálico para el reactor de Heisenberg (en parte con mineral capturado durante la conquista de Bélgica). Los norteamericanos no empezarían a disponer de este material hasta 1942, cuando los científicos alemanes ya contaban con siete toneladas y media. En diciembre de 1942, la Pila Chicago-1 de Fermi y Szilárd necesitó 6 toneladas de uranio puro y 34 de óxido de uranio para convertirse en el primer reactor operativo de la historia. Pero no estamos en 1942: estamos aún en 1941, y el Tercer Reich tiene ya casi todo el uranio necesario.

En Alemania había (y hay) grandes minas de carbón; con él, compañías como Siemens-Plania, IG Farben, Degussa y otras podrían haber producido grafito de calidad nuclear a poco que sus científicos atómicos les hubieran dicho cómo hacerlo. Esto, evidentemente, no sucedió. En vez de eso, el agua pesada se convirtió en un recurso estratégico de primer orden, la única posibilidad. A partir de estas fechas, se realizaron numerosas actuaciones para asegurar el agua pesada noruega de Norsk Hydro, y también para empezar a producirla en Alemania, esto último con reducido éxito. Hacia finales del verano de 1941, encargaban a Norsk Hydro 1.500 kilos de agua pesada. Para fin de año, ya habían recibido los primeros 361.

Durante el mismo 1941 hubo diversos intentos para enriquecer uranio de manera más eficiente, lo que habría despertado un interés renovado en el grafito (posiblemente sacándoles de su error). Pero a pesar de que alguno tuvo éxito, no se vieron capaces de continuar por ese camino debido a las limitaciones económicas. Así, les quedó definitivamente vedada la vía del uranio. Sólo era posible la vía del plutonio, como concluyera el singular Fritz Houtermans en agosto de este año, lo que exigía construir un reactor sí o sí. A partir de finales de 1941, todos los intentos de los científicos atómicos alemanes estuvieron orientados a crear este reactor de uranio natural-agua pesada. En palabras de Heisenberg, fue en septiembre de 1941 cuando vimos ante nosotros un camino abierto que conducía a la bomba atómica.

En octubre, un atribulado Heisenberg se reunía en Dinamarca con Niels Bohr para conversar sobre la moralidad de que los científicos contribuyeran a esta clase de invenciones terribles; Bohr malinterpretó la conversación por completo y transmitió que Alemania estaba cerca de conseguir la bomba atómica a los norteamericanos (adonde Bohr huiría también poco después). Puede imaginarse la alarma que despertaron estas palabras, reforzando la reciente decisión de Roosevelt de iniciar el desarrollo de esta nueva clase de arma (en esos momentos y durante unos meses más, el proyecto Manhattan aún se compondría de investigaciones aisladas).

Operación Barbarroja

El 22 de junio de 1941, Alemania invadió la Unión Soviética. Comenzaba así la mayor batalla de la historia de la Humanidad, que se cobraría decenas de millones de víctimas civiles y militares y culminó con el colapso total del régimen nazi. Esto provocó enormes tensiones en la economía alemana desde el invierno de 1941, obligándoles a concentrarse en aquellos proyectos que pudieran ofrecer resultados militares de manera más inmediata. Deutsches Bundesarchiv.

En diciembre de 1941, con las fuerzas alemanas detenidas a las puertas de Moscú, el ministro de Armamento y Municiones Fritz Todt comunicaba a Hitler que la economía de guerra alemana estaba próxima a su punto de ruptura. Desde ese momento, cualquier incremento de gasto en un ámbito debía conducir necesariamente a una reducción en otros o el país colapsaría. Así pues, se cursaron órdenes para evaluar todos los programas armamentísticos y concentrar los recursos en aquellos que pudieran obtener resultados antes de que acabase la guerra. El profesor Schumann, director de investigaciones militares, escribió a los distintos institutos del uranio transmitiéndoles estas instrucciones.

Hubo una primera reunión evaluadora a principios de 1942. Durante esa reunión se vio que sus expectativas militares eran demasiado remotas: pasaría un largo tiempo antes de que se pudiera construir un reactor de uranio natural – agua pesada capaz de producir plutonio en cantidad. No habría bomba atómica en breve. Así pues, se decidió sacar este proyecto del ámbito militar y devolverlo al civil, bajo control del Ministerio de Educación. En ese momento, el cénit del programa atómico nazi, apenas había un total de setenta personas implicadas directamente en el mismo.

El 26 y 27 de febrero de 1942 se convocaron dos reuniones simultáneas para tratar el asunto en mayor profundidad, con la participación de todos los científicos nucleares principales. Se invitó a  Himmler y Keitel pero, debido a una equivocación administrativa, ambos declinaron su asistencia (les mandaron el programa de conferencias científicas por error, en vez de los encuentros de interés político-militar, lo que les hizo pensar «¿qué demonios pintamos nosotros en unas jornadas de físicos?»). A pesar de esto las reuniones resultaron satisfactorias y se aceleró la construcción de una planta de agua pesada en Leuna por cuenta de IG Farben. Pero seguían dependiendo de Norsk Hydro, que ahora producía unos 140 kg de calidad superior al 99% cada mes; la planta de Leuna no estaría lista hasta finales de la guerra… fabricando agua pesada a apenas el 1%. De todos modos, el programa atómico no regresó al ámbito militar.

Pila atómica alemana L-IV de Leipzig.

La pila atómica L-IV de Leipzig, el primer intento serio de construir un reactor nuclear en la Alemania nazi. Fue activada en mayo de 1942 y produjo más neutrones de los que gastaba, un 13%, aún lejos de lo necesario para sostener una reacción en cadena.

En mayo, Degussa había manufacturado ya tres toneladas y media de uranio para la pila atómica de Heisenberg. Hacia finales de mayo realizaron el primer intento en Leipzig: el reactor L-IV, con 750 kilos de uranio puro y 140 de agua pesada. Produjo neutrones, un 13% más de los que consumía, pero aún estaba muy lejos de sostener una reacción en cadena. Sin embargo, era un éxito: simplemente aumentando su tamaño, conseguirían un reactor nuclear efectivo. Heisenberg calculó que con diez toneladas de uranio metálico y cinco de agua pesada bastaría. El 28 de mayo, Degussa enviaba la primera tonelada a sus talleres de Fráncfort para cortarla en piezas del tamaño adecuado. Pero el agua pesada seguía llegando desde Noruega a un ritmo exasperantemente lento. ¡Si hubiera algo para sustituirla…! Alrededor, las fábricas germanas producían constantemente miles de toneladas de carbono purificado y grafitos elaborados con buen carbón alemán, para múltiples usos civiles y militares, ignorando que tenían en sus manos la clave de la bomba atómica.

El 4 de junio llegó el momento más decisivo del programa atómico alemán. Heisenberg viajó a Berlín para entrevistarse con el poderoso ministro del Reich Albert Speer, íntimo de Hitler. En la reunión, celebrada en el Instituto Kaiser-Wilhelm de Berlín-Dahlem, estaban también presentes otros pesos pesados de la ciencia, la política y el ejército. Heisenberg les explicó que era posible construir una bomba del tamaño de una piña capaz de aniquilar una ciudad. Pero, a continuación, anunció que Alemania no podría construirla en muchos meses; y, de hecho, representaba una imposibilidad económica con las tecnologías disponibles. Los asistentes, que se habían excitado mucho con la primera afirmación, quedaron decepcionados tras la segunda.

El día 23, Speer se reunía con Hitler. En el transcurso de una larga conversación sobre múltiples temas, apenas mencionó el asunto de la bomba atómica, y de manera poco entusiasta. Así, el programa nuclear nazi perdió definitivamente el interés de los políticos y los soldados. A pesar de ello siguieron financiándolo y prestándole asistencia hasta el final de la guerra, aunque como un proyecto civil de orden secundario para la futura producción de energía eléctrica.

En torno a esas fechas, los aliados identificaron el interés nazi en el deuterio noruego y pusieron en marcha una campaña de sabotajes y bombardeos contra la instalación de Norsk Hydro en Vemork, conocida por la historia como la batalla del agua pesada. Hubo grandes actos de heroísmo y famosas películas… pero en realidad, a esas alturas, Alemania ya estaba fuera de la carrera por la bomba atómica. Lo único que lograron estas acciones bélicas fue retrasar aún más la investigación civil. En torno a 1944, la instalación estaba tan dañada que ya sólo producía agua pesada al 1%.

Aún así, siguieron avanzando. Cada vez más despacio, conforme la guerra en el Este demandaba más y más de la sociedad alemana, los bombarderos del Oeste aniquilaban sus ciudades e industrias, el agua pesada llegaba cada vez más despacio y más impura. Varias instalaciones esenciales resultaron destruídas durante los bombardeos de alfombra. El suministro de corriente eléctrica era a cada día más azaroso, los recursos más raros y caros. Hacia el otoño de 1944 los cohetes balísticos V-2 de Von Braun comenzaron a atacar las ciudades enemigas… con componentes realizados en un grafito de alta calidad muy similar al que habría salvado el programa atómico tres años y medio antes.

También fue en esa época cuando, por el propio avance de la ciencia, los científicos alemanes adquirieron consciencia de que habían estado equivocados todo ese tiempo. De que las mediciones de Bothe estaban mal: el grafito era un extraordinario moderador neutrónico que habría permitido a la Alemania nazi crear rápidamente reactores generadores de plutonio. Pero a esas alturas ya no tenía arreglo. Aún llegaron a construir un último reactor en marzo de 1945, el B-VIII de Haigerloch, utilizando una solución mixta de agua pesada y grafito. Tenía las características tecnológicas para alcanzar la reacción en cadena autosostenida, pero aún resultaba demasiado pequeño debido a las carencias de agua pesada. A esas alturas, los Estados Unidos ya estaban produciendo plutonio industrialmente en Hanford. Con uranio natural y grafito, por supuesto.

Soldados norteamericanos y británicos desmontan el reactor B-VIII de Haigerloch.

Soldados norteamericanos y británicos desmontan el reactor nuclear nazi B-VIII de Haigerloch tras su captura. Archivo Gubernamental del Reino Unido.

A finales de abril de 1945, las tropas anglonorteamericanas conquistaban Haigerloch y otras instalaciones esenciales para el programa nuclear alemán, mientras el Ejército Rojo hacía lo propio por el este. El día 30, Hitler se suicidaba en su búnker. El 2 de mayo, el comandante de Berlín rendía la capital del Tercer Reich al general soviético Vasily Chuikov. Cinco días después, los restos de la Alemania nazi se rendían incondicionalmente a los aliados. Las misiones Alsos norteamericana y soviética hicieron su particular agosto. La historia aún tuvo un último coletazo: el 14 de mayo, un buque estadounidense capturaba al submarino U-234. Iba cargado con materiales nucleares y otros componentes tecnológicos avanzados, en dirección a Japón. Algunos de estos productos llegarían a su destino tres meses después… como parte de las bombas de Hiroshima y Nagasaki.

¿Qué fue lo que falló?

Aún hoy se discute por qué un físico tan extraordinario como Walther Bothe, que ganaría el premio Nobel en 1954, cometió ese error fatal en sus mediciones del grafito. Algunos creen que el electrografito purísimo suministrado por Siemens-Plania para el experimento estaba contaminado con boro, un poderoso absorbente neutrónico capaz de alterar los resultados: un solo gramo de boro captura tantos neutrones como cien kilos de carbono. En aquella época era común que el proceso de elaboración industrial del grafito incorporase carburo de boro, un hecho que Szilárd sabía y tuvo en cuenta durante sus experimentos análogos en los Estados Unidos. Pero Bothe, aparentemente, no estaba al tanto de este detalle. A pesar del cuidadoso análisis de la pureza del grafito realizado por este último, incluso cantidades minúsculas de boro bastarían para reducir la longitud de absorción de la muestra por debajo del mínimo exigible en un moderador neutrónico. Otros deducen que los bloques de grafito utilizados no encajaban perfectamente entre sí y, al sumergirlos en el agua, mantuvieron burbujas de aire en su interior. En este caso, el nitrógeno del aire podría haber producido un efecto parecido. Esta era la opinión del propio Werner Heisenberg.

Hay incluso quien piensa que Bothe saboteó los resultados. Walther Bothe despreciaba profundamente a los nazis por el asunto de la física aria, estaba casado con una rusa y –a diferencia de lo ocurrido con sus colegas– los vencedores no le molestaron tras el fin de la Segunda Guerra Mundial. En este caso Bothe, perfecto conocedor de las fortalezas y debilidades de Alemania, habría bloqueado deliberadamente el único camino practicable por los nazis para conseguir la bomba atómica. Al cortar el paso al grafito, sabiendo de las dificultades relacionadas con el enriquecimiento de uranio y con el agua pesada, cerraba también de hecho la vía del plutonio al Tercer Reich. O al menos se lo ponía muy difícil. Bothe jamás reconoció esta posibilidad, aunque sin duda le habría hecho quedar como un héroe tras la victoria aliada. Lo único que dijo respecto a sus resultados erróneos fue que Heisenberg no había tenido en cuenta los márgenes de error (aunque, como hemos visto en el texto original, eran unos márgenes muy ajustados).

Soldados soviéticos en Berlín, mayo de 1945

Soldados soviéticos en el hotel Adlon de Berlín, frente a la Puerta de Brandemburgo, en mayo de 1945. Algunas de las principales instituciones científicas, situadas en el área de Berlín, caían así en manos de la URSS. Deutsches Bundesarchiv.

En realidad el fallo esencial de la ciencia alemana en el programa nuclear fue no contar con un mecanismo de verificación independiente. Así lo reconocía Heisenberg, en la entrevista mencionada al principio:

Había tan pocos grupos [de investigación] que nunca repetíamos un experimento dos veces. Cada grupo tenía alguna tarea asignada. Nosotros, en Leipzig, hicimos las mediciones para el agua pesada y a partir de ese momento todo el mundo aceptó nuestro resultado; nadie lo comprobó. Y nadie comprobó tampoco las medidas de Bothe.

Si hubiera existido un mecanismo de verificación independiente que comprobara los datos de sus colegas, el error de Bothe se habría tornado evidente en el mismo 1941 y Alemania habría podido usar el grafito como moderador desde el principio. En ausencia de verificaciones independientes, toda afirmación tiene que darse por buena sin garantía alguna, incluso aunque vaya en contra de todo lo que se sabe hasta el momento (como en este caso: la teoría no predecía una longitud de difusión tan corta, ni tampoco las mediciones preliminares anteriores del propio Bothe). Por eso se insiste tantas veces: todo experimento debe ser reproducible y reproducido, todos los resultados deben verificarse independientemente. Esto es esencial para el método científico. Cuando no se respeta, ya vemos las consecuencias, en este o en cualquier otro ámbito.

Pero, ¿habría sido realmente posible?

El error de Bothe no fue, ni con mucho, el único problema que plagó al programa atómico de la Alemania nazi. Uno de los más fundamentales fue el volumen económico total del Tercer Reich, al menos en comparación con el de los Estados Unidos. Durante la mayor parte de la guerra, el producto nacional bruto alemán era superior al británico, el francés o el soviético; pero entre dos y tres veces más pequeño que el estadounidense. Este abismo económico explica por sí solo la relativa facilidad con que la potencia norteamericana pudo desarrollar el proyecto Manhattan. No obstante, los Estados Unidos recorrían simultáneamente la vía del plutonio y la del uranio, mucho más cara. Yendo sólo por la del plutonio, un programa nuclear resulta notablemente menos costoso; puede que incluso hasta el punto de igualar estas diferencias en poderío económico total.

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial

Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial. Datos tomados de Mark Harrison (1998), «The economics of World War II: Six great powers in international comparison», Cambridge University Press. Clic para ampliar.

Otro problema notable fue la llamada generación perdida de científicos alemanes. Debido a las persecuciones políticas y raciales, un gran número de científicos europeos y específicamente alemanes huyeron a los Estados Unidos, donde terminarían constituyendo la columna vertebral del proyecto Manhattan. Estupideces racistas como el asunto de la Física aria, junto a las distintas ciencias patrióticas o la depuración política del profesorado, no hicieron nada por mejorar el estado de la ciencia que quedó en la Europa controlada por el nazifascismo y sus aliados. Y sin embargo, como hemos visto, Alemania mantenía un número significativo de científicos destacados pertenecientes a la generación anterior.

Un tercer problema significativo fue la dificultad de acceso a algunos productos esenciales. Europa no es un continente que se caracterice por la abundancia de recursos naturales; incluso conquistando la mayor parte, como había logrado el Tercer Reich a finales de 1940, sigues necesitando un montón de cosas. El mismo uranio –aunque suficiente– hubo que rebuscarlo por varias fuentes distintas, desde las minas de Checoslovaquia a las reservas belgas. No tenían helio. El petróleo y los combustibles fueron un quebradero de cabeza para los nazis durante toda la guerra. Y así, mil cosas. En general, a Alemania todo le salía mucho más caro y trabajoso de obtener, porque debía conseguirlo fuera de Europa. Esto produjo también importantes carencias entre la población. A pesar de ello, no hay ningún motivo claro por el que estas carencias hubieran podido detener o retrasar significativamente la vía del plutonio, si no hubiera sido por ese asunto del agua pesada.

Y, por supuesto, conforme avanzaba la guerra los bombardeos y las derrotas constreñían la economía alemana cada vez más y les iban privando de industrias y recursos fundamentales. Hacia el final del conflicto, algunas instalaciones clave para el programa atómico resultaron destruidas o severamente dislocadas. Pero para cuando eso ocurrió, la guerra ya estaba perdida y el camino al arma nuclear, abandonado tiempo atrás en favor de aquellos últimos reactores de juguete.

El error de Bothe fue el único factor determinante que cerró decisivamente el único camino practicable hacia la bomba atómica para el Tercer Reich. Precisamente por todas estas limitaciones, Alemania debía haber tomado desde el primer momento y sin dudarlo la vía del plutonio producido en reactores de uranio natural-grafito. Así lo consiguieron casi todas las potencias nucleares. Como hemos visto, gozaban de uranio y grafito suficiente para intentarlo, así como de un número de científicos muy destacados que ya habían alcanzado muchos de los conocimientos necesarios en fecha tan temprana como 1941. Quizá no tuvieran gente con la talla de Einstein o Szilárd o Fermi u Oppenheimer, pero los científicos atómicos alemanes eran muy brillantes sin duda alguna. No obstante, al obligarles a ir por el camino del agua pesada, el error de Bothe retrasó y encareció absurdamente el programa nuclear nazi hasta tornarlo impracticable por completo en el escaso tiempo de que disponían.

Walther Bothe en 1954

Walther Bothe en 1954, tras obtener el premio Nobel. Fundación Nobel, Suecia.

Fueron estos retrasos y encarecimientos los que desmotivaron a la dirigencia política y militar del Tercer Reich, así como a los propios científicos. Si en Alemania no hubo una acción política decidida para unificar el proyecto atómico y dotarlo de medios abundantes fue precisamente porque el largo camino del agua pesada lo hacía poco atractivo de cara al desenlace de la guerra. Si hubiera habido una vía rápida –el reactor de grafito–, seguramente se habrían tomado mucho más interés.

Opino que sin el error de Bothe, y con un programa atómico decidido y bien dotado, la Alemania nazi podría haber completado su primer reactor de uranio natural-grafito al mismo tiempo que los estadounidenses o poco después: finales de 1942, principios de 1943. Incluso algo antes, mediando cierta genialidad. Tampoco veo ningún motivo claro por el que no hubieran podido empezar a producir plutonio a escala industrial hacia finales de 1943 o principios de 1944 (los norteamericanos lo lograron a mediados de 1943). Y una bomba primitiva entre 1945 y 1946.

Para ser de utilidad, obviamente, la Segunda Guerra Mundial tendría que haber durado un poco más; pero no debemos olvidar que las decisiones científicas principales se tomaron a principios de 1941, cuando todas las opciones políticas y militares estaban abiertas aún. No era estrictamente preciso invadir la URSS en junio de 1941, sobre todo si piensas que pronto tendrás bombas atómicas para devastarla a tu gusto. Tampoco era totalmente necesario que Japón atacara Pearl Harbor en diciembre de 1941, propiciando así la entrada de Estados Unidos en la guerra y la activación final del Proyecto Manhattan durante 1942. Todo eso era en gran medida inevitable y habría terminado por suceder de una manera u otra, pero no tenía por qué ocurrir tan deprisa como sucedió. Si los nazis hubieran sustentado la convicción íntima de que sus científicos andaban detrás de algo importante, una wunderwaffe como jamás vio la Humanidad, habrían tenido una motivación clara para enfriar la evolución del conflicto en vez de acelerarla como hicieron. Un 1941-1942 de moderada intensidad (parecida a lo que fue el periodo agosto de 1940 – junio de 1941, con enfrentamientos eminentemente periféricos y un reforzamiento de la Defensa del Reich) habrían sido suficientes con alguna probabilidad.

Pues si Alemania hubiera podido seguir la vía del plutonio usando reactores de uranio natural-grafito, creo –creo– que habría bastado con retrasar las cosas catorce o dieciocho meses para asegurarse una bomba atómica como la de Nagasaki antes del final de la guerra. Dado que no había ningún motivo por el que retrasarlas, dado que el programa nuclear alemán se había convertido en poco más que una curiosidad científica irrelevante a partir del error de Bothe en enero de 1941 y sobre todo desde la reunión con Speer de junio de 1942, las cosas sucedieron como sucedieron. El Tercer Reich invadió a la URSS en junio de 1941, Japón atacó Pearl Harbor en diciembre, Estados Unidos y la Unión Soviética entraron en modo overkill, y el resto de la historia resulta sobradamente conocido. Para bien.

Pila atómica nazi B-VIII de Haigerloch

El último intento nazi por alcanzar la criticidad: la pila atómica B-VIII de Haigerloch, capturada por los aliados en abril de 1945. Nunca pudo alcanzar la reacción en cadena autosostenida: debería haber sido un 50% mayor para lograrlo. Réplica en el Museo Atómico de Haigerloch, Alemania.

116 Comentarios Trackbacks / Pingbacks (14)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (75 votos, media: 4,95 de 5)
Loading...
Be Sociable, Share!

Un viaje interplanetario relativista.

Si no te importara hacer un viaje sólo de ida en el tiempo, podrías circunnavegar todo el universo conocido en tu tiempo de vida.
Para ello, no necesitarías superar la velocidad de la luz: es suficiente con aproximarte a ella.

Albert Einstein

Si no meto la pata con nada, hasta podría ser que el doctor Einstein aprobara el post de hoy.

La semana pasada, hicimos un viaje a la velocidad de la luz desde el Sol hasta los ojos con dispensa del doctor Einstein. Tengo que confesarte una cosa: no contaba con la dispensa del doctor Einstein. :-( Así que hoy me propongo desagraviarle. Para ello, vamos a estudiar cómo podríamos hacer un verdadero viaje interplanetario respetando escrupulosamente su Teoría de la Relatividad y viendo lo que sucedería durante el mismo. Y la facilidad con que, una vez alcanzada esa tecnología, tal viaje interplanetario podría convertirse en un viaje intergaláctico e incluso de circunnavegación universal… que podrías completar en tu tiempo de vida. Eso sí: el billete es sólo de ida. Sólo de ida en el tiempo, quiero decir.

La Teoría de la Relatividad y la nave espacial Abbás ibn Firnás.

¿Qué clase de vehículo podríamos utilizar en este viaje? Es obvio que hoy no existen las tecnologías necesarias para diseñarlo, aunque el estado actual de la ciencia ya permite postular algunas posibilidades. Así pues, vamos a crear una nave especulativa –pero científicamente rigurosa– a la que me permitiré bautizar con el nombre del compatriota andalusí Abbás ibn Firnás; uno de los pocos nacidos en la Península Ibérica que da nombre por sus propios méritos a un objeto extraterrestre notable. Cosas de este país. Y a fin de cuentas, resulta bastante probable que su primer vuelo acabase igual que los del viejo químico rondeño. :-D

Próximamente te contaré los detalles tecnológicos de la Abbás ibn Firnás, pero por el momento confórmate con saber que se trata de una nave a propulsión constante, con enorme empuje total e impulso específico, correctamente blindada, equipada y capaz de alcanzar 0,999c. Oséase, el 99,9% de la velocidad de la luz. Con ella, nos encontramos establecidos en una órbita de estacionamiento alrededor de la Tierra. Y para situarnos en su cabina de mandos vamos a utilizar la aplicación Real Time Relativity, desarrollada por el equipo del profesor Craig Savage, del Departamento de Ciencia Cuántica, Facultad de Ciencias Físicas y Matemáticas, Universidad Nacional de Australia. Esto viene a ser un simulador especializado en expresar correctamente los efectos relativistas a bordo de un vehículo que viaje a velocidades próximas a las de la luz. Puede que tengas que ajustar un poco tu monitor o la iluminación ambiental para ver bien las siguientes imágenes, que he preferido conservar sin retocar para mantener el realismo.

La Abbás ibn Firnás en una órbita de estacionamiento próxima a la Tierra.

Vista desde la nave especulativa Abbás ibn Firnás, en una órbita de estacionamiento próxima a la Tierra. Nuestro punto de partida.

Instrumentos básicos de la Abbás ibn Firnás

Fíjate en los siguientes instrumentos básicos. En la primera fila, "speed" indica la velocidad como una fracción de la velocidad de la luz en el vacío (0.5c sería la mitad de la velocidad de la luz). En la última fila, "location" indica nuestra posición con respecto a un punto de referencia en el Sol, expresada en segundos-luz (al hallarnos cerca de la Tierra estamos a 499 segundos-luz del Sol, ¿recuerdas?). En la fila de en medio, "world time" indica el tiempo en segundos transcurrido para el resto del mundo y "proper time" el que ha pasado a bordo de nuestra propia nave. Como ahora estamos esencialmente detenidos, ambos son iguales.

¿Y qué es esto de los efectos relativistas? Bueno, vamos a ver. En primer lugar, rompamos una concepción equivocada que se tiene a veces: eso de que hay una física relativista o una mecánica cuántica contra una física clásica o algo parecido. Esto no va así y nunca lo ha hecho. En realidad, la Relatividad es una generalización de la clásica o, si lo prefieres, la física clásica (newtoniana y tal) constituye un subconjunto de la Teoría de la Relatividad (y también de la mecánica cuántica). No son opuestas ni contradictorias: una engloba a la otra, mejorándola y haciéndola más exacta.

Por ejemplo: la física clásica estudia bien los fenómenos que suceden a velocidades bajas y nos apañamos muy bien con ella durante algunos siglos. Pero es incapaz de explicar los que ocurren a velocidades altas. Con la Teoría de la Relatividad, se estudian más exactamente tanto los fenómenos que suceden a velocidades bajas como los que suceden a velocidades altas; lo que ocurre es que a velocidades bajas los resultados aportados por la Teoría de la Relatividad coinciden a grandes rasgos con los aportados por la física clásica. Entonces, por simplicidad, se usa la física clásica, que es más sencilla. Pero la Relatividad está ahí detrás, agazapada.

Dicho en términos sencillos: a bajas velocidades, los resultados obtenidos por la física newtoniana y la relativista coinciden esencialmente. A altas velocidades, sin embargo, difieren. La observación y la experimentación nos permiten concluir que es la Relatividad quien lleva razón en esa diferencia: por ejemplo, incluso a velocidades tan lejanas de la lumínica como las que caracterizan a los satélites artificiales del presente, resulta necesario sincronizar a menudo sus relojes debido a la dilatación temporal. Por eso decimos que la Relatividad incluye y mejora a la clásica. Cuando estas diferencias se tornan evidentes a los sentidos e instrumentos humanos, hasta el punto de constituir un orden de fenómenos totalmente distinto al clásico, hablamos de la aparición de fenómenos relativistas (como la mencionada dilatación temporal). Pero, estrictamente hablando, esos fenómenos relativistas estuvieron siempre ahí; sólo que no eran evidentes. Desde una perspectiva más amplia, sería mejor decir que aparecen fenómenos clásicos (los corrientes que estamos acostumbrados a ver) en un subconjunto de resultados de la Teoría de la Relatividad: por ejemplo, a baja velocidad.

Una nota sobre la palabra ‘teoría’.

A todo esto, quisiera recordarte algo sobre la palabra teoría. En español, teoría tiene varios significados distintos, y dos de ellos sí que son contrapuestos. Uno, en lenguaje vulgar o tradicional, equivale a «conjetura», o «especulación» o «suposición»: como cuando alguien dice «¡eso sólo son teorías!». El otro, en lenguaje riguroso y científico, significa exactamente lo contrario: una teoría científica constituye el nivel superior del conocimiento, superior incluso a la ley; de hecho, una teoría científica es un conjunto de leyes y conceptos organizados en un orden mayor del conocimiento verificado o al menos verificable experimentalmente. Por ejemplo, partes sustanciales de la Teoría de la Relatividad han sido demostradas más veces y más a fondo que la mismísima Ley de la Gravitación Universal.

En palabras de la Academia Nacional de Ciencias de los Estados Unidos,

«La definición científica formal de ‘teoría’ es muy diferente del sentido cotidiano del término. Se refiere a una explicación detallada de algún aspecto de la naturaleza que se apoya en un vasto cuerpo de pruebas. Muchas teorías científicas están tan bien establecidas que pocas evidencias nuevas podrían alterarlas sustancialmente. Por ejemplo: ninguna evidencia nueva demostrará que la Tierra no gira alrededor del Sol (teoría heliocéntrica), o que las cosas vivas no están compuestas de células (teoría celular), que la materia no esté compuesta de átomos (teoría atómica) o que la superficie terrestre no esté dividida en placas sólidas que se han desplazado a lo largo de periodos de tiempo geológicos (teoría de la tectónica de placas). Al igual que estas otras teorías científicas fundacionales, la teoría de la evolución está apoyada por tantas observaciones y experimentos confirmadores que los científicos tienen la confianza en que sus componentes básicos no serán revocados por nuevas pruebas.»

Por su parte, la Asociación Estadounidense para el Avance de la Ciencia nos lo explica así:

«En las novelas detectivescas, una ‘teoría’ es poco más que una conjetura, a menudo basada en unos pocos hechos circunstanciales. En ciencia, la palabra ‘teoría’ significa mucho más. Una teoría científica es una explicación bien sustentada de algún aspecto del mundo natural, en base a un conjunto de hechos que se han confirmado repetidamente mediante la observación y la experimentación. Tales teorías apoyadas en hechos no son ‘conjeturas’ sino descripciones fiables del mundo real.»

Es cierto que a veces se ha abusado de la palabra teoría para dar unte a hipótesis en distintos estados de verificación o refutación. Pero esto es la excepción, no la norma. También existen algunos flecos epistemológicos sobre los límites de la teoría como orden superior del conocimiento. A efectos prácticos, en la inmensa mayoría de los casos que te encontrarás a lo largo de tu vida puedes considerar la expresión teoría científica como sinónimo de conocimiento demostrado sin mucho temor a equivocarte (siempre que esté correctamente estudiada y referenciada). Como ocurre, por ejemplo, con la Teoría de la Relatividad. En términos generales, puedes permitirte una sonrisa a costa de quienes digan «¡eso sólo son teorías!» refiriéndose a una teoría científica. No olvides sacarles de su error.

¿Un ejemplo de teoría científica a la que difícilmente se puede considerar teoría verdadera? Pues la Teoría de Cuerdas, por ejemplo, pese a su popularidad. ¿Por qué? Porque algunos de sus aspectos más importantes no son falsables ni han sido demostrados (ni es probable que ocurra en un largo periodo). Con la única excepción de algunas cuestiones vinculadas a la correspondencia AdS/CFT, no realiza ninguna predicción verificable. Se trataría más bien de un modelo o una hipótesis compleja, que puede ser verdadera o falsa, pero desde luego no reúne todavía la clase de confirmación exigible a una auténtica teoría científica.

Por otra parte, todas las llamadas ciencias blandas permiten en sus teorías un grado mayor de especulación, a diferencia de los estrictos criterios utilizados en las duras (física, química, astronomía, geología y biología). Esto no quiere decir que las teorías blandas sean necesariamente falsas o exclusivamente especulativas: sólo que sus conclusiones rara vez gozan de la misma exactitud y certeza. Una diferencia sustancial entre ambas es que las blandas tienden a preferir el análisis cualitativo, mientras las duras se apoyan sobre todo en el cuantitativo.

Planeando nuestro viaje en la Abbás Ibn Firnás.

Mapa superior del sistema solar el 6 de agosto de 2020.

El sistema solar tal como estará a las 00:00 UTC del 6 de agosto de 2020, en vista superior. Simulador del sistema solar, NASA. (Clic para ampliar)

Hecha esta aclaración, sigamos adelante. Nos proponemos realizar un viaje desde la órbita de la Tierra hasta la de Plutón, lo más cerca que podamos de la velocidad de la luz. Después, regresaremos a la Tierra para almorzar. Cuando pasemos por Saturno, nos detendremos unos momentos para tomar algunas mediciones. Puesto que a altas velocidades maniobrar resulta muy complicado y se viaja fundamentalmente en línea recta, y dado que con la clase de empuje que nos gastamos podemos obviar en gran medida las órbitas habituales, realizaremos nuestro recorrido en tres tramos rectos: Tierra-Saturno, Saturno-Plutón y Plutón-Tierra. ¿El motivo del viaje? ¡Aprendizaje y placer, claro!

Para ahorrar algo de combustible, hemos elegido un día en que estos tres planetas se hallen bien dispuestos: el 6 de agosto de 2020. En ese momento, Venus, Tierra, Júpiter, Saturno y Plutón estarán en una magnífica alineación. Sí, quizás es un poco pronto para que pueda existir algo como la Abbás ibn Firnás, pero por optimismo que no quede. A fin de cuentas, la semana pasada lo hicimos con trajes de cuero de unicornio translumínico y visores de la isla de San Borondón. ;-)

Esto de la dilatación temporal, que ya mencionamos más arriba, va a producir un fenómeno curioso. Para el resto del mundo, nuestro viaje de ida y vuelta a Plutón va a durar cerca de once horas (la distancia dividida por la casi-velocidad de la luz), con lo que si salimos a las 00:00 UTC, regresaríamos a la Tierra más o menos a la hora del almuerzo (lo que en España llamamos almuerzo, lector latinoamericano ;-) ). Sin embargo, este efecto relativista va a contraer el tiempo a bordo de la Abbás ibn Firnás, con lo que para nosotros habrá transcurrido apenas una hora: regresaremos justo a tiempo para un resopón de madrugada. Lo iremos viendo sobre la marcha.

¡Allá vamos!

La Dirección Global de Tráfico ha establecido una velocidad máxima de un 20% de la velocidad de la luz en las cercanías de los planetas habitados. Y no sabes las multas que clavan, por no mencionar que los puntos del carné de pilotar se te quedan en números imaginarios (imagina que algún día lo recuperas, tralará…). Así que vamos a respetar escrupulosamente esta limitación: aunque hemos dotado a la Abbás ibn Firnás con un impulsor experimental que posee una capacidad de aceleración asombrosa (de hecho, también imaginaria, al igual que el mecanismo para que no nos aplaste…), saldremos poquito a poco. Además, esto nos permitirá observar el primer fenómeno relativista curioso, que se vuelve evidente incluso a velocidades tan bajas. Поехали!

Le damos un poquito de gas a los impulsores y pronto comenzamos a alejarnos del sistema Tierra-Luna. Entonces, al mirar hacia atrás, vemos que está ocurriendo algo extraño. ¿No parece todo ahora como… como oscuro y rojizo?

Partida de la Tierra con la Abbás ibn Firnás: corrimiento al rojo.

Partimos en dirección a Saturno, a poco menos del 20% de la velocidad de la luz. Al mirar hacia atrás para despedirnos de la Tierra, observamos que todo parece como más oscuro y rojizo.

Este corrimiento al rojo a nuestra espalda es el primer fenómeno relativista notable que vamos a observar. Si tuviéramos un objeto delante, veríamos que éste se ha corrido al azul. Pero ahora, frente a nosotros, sólo hay ya espacio interplanetario; así que por el momento no te lo puedo enseñar (lo veremos más adelante, cuando nos estemos aproximando a Saturno). Esta transformación de colores obedece al efecto Doppler, ese que hace que oigamos el ruido de un vehículo más agudo cuando se acerca y más grave cuando se aleja; sólo que bajo la forma de efecto Doppler relativista. La razón es bastante sencilla: cuando se mueve un emisor de ondas (de sonido, de luz, las que sean), estas ondas tienden a quedar comprimidas en el sentido de la marcha (lo que equivale a una menor longitud de onda, o sea una frecuencia mayor) y a quedar expandidas hacia atrás (con mayor longitud de onda, es decir, a frecuencia menor).

Efecto Doppler

Efecto Doppler

Por tanto, cuando estamos delante de un objeto que viene hacia nosotros percibimos las ondas que emite a una frecuencia superior. Y cuando se aleja, a una frecuencia inferior. El efecto Doppler aplicado a la luz provoca el corrimiento al rojo estelar que nos permitió descubrir que este es un universo en expansión, y también nos permite calcular las distancias a estrellas y galaxias remotas (porque la longitud de onda aumenta de manera conocida, y eso se puede medir). Si alguna parte del cosmos visible no estuviera expandiéndose o estuviéra contrayéndose, no observaríamos corrimiento al rojo u observaríamos corrimiento al azul (es decir: la longitud de onda percibida se reduciría). Pero tal cosa no sucede en ningún lugar observado jamás.

Y es que el efecto Doppler se produce tanto si se mueve el objeto emisor de ondas como si se mueve el receptor (nosotros). Da igual si el emisor se aleja de nosotros o nosotros de él: la longitud de onda percibida aumentará, desplazándose hacia los graves (si es un sonido) o hacia los rojos (si es luz). Lógicamente, tanto si el emisor se acerca a nosotros como si nosotros nos acercamos a él, la longitud de onda percibida se reduciría, desplazándose hacia los agudos (si es un sonido) o hacia los azules (si es luz).

Miremos de nuevo hacia adelante. Como ya nos hemos alejado lo suficiente de la Tierra, la Dirección Global de Tráfico ya nos permite acelerar a velocidades muy superiores. Conforme nos acercamos a la mitad de la velocidad de la luz, parece como si toda la luz y las estrellas que hay delante de nosotros se comprimieran hacia un lugar brillante, directamente al frente:

Vista hacia adelante a la mitad de la velocidad de la luz.

Vista hacia adelante a la mitad de la velocidad de la luz.

Mientras que, si miramos hacia atrás, ese oscurecimiento que ya habíamos observado junto con el corrimiento al rojo aumenta más y más. Las estrellas parecen haberse desplazado hacia el frente. La Tierra se distingue a duras penas ahora, negruzca y tan rojiza que su luz se corre rápidamente hacia el infrarrojo, invisible para nuestros ojos:

Vista hacia atrás a la mitad de la velocidad de la luz.

Vista hacia atrás a la mitad de la velocidad de la luz. Quizás tengas que ajustar el monitor o la luz ambiente para distinguir la Tierra, fuertemente corrida al rojo por efecto Doppler relativista y oscurecida por aberración estelar.

Cuando alcanzamos el 80% de la velocidad de la luz, este efecto es ya clamoroso:

Vista hacia adelante al 80% de la velocidad de la luz.

Vista hacia adelante al 80% de la velocidad de la luz.

Mientras que, si miramos ahora hacia atrás, ya no se ve absolutamente nada y seguiremos sin verlo mientras prosiga el viaje a estas velocidades:

Vista hacia atrás al 80% de la velocidad de la luz.

Vista hacia atrás al 80% de la velocidad de la luz.

Este fenómeno de «distorsión de la luz hacia el sentido de la marcha» se llama aberración estelar, que en su variante relativista es directamente proporcional a la velocidad con que nos movemos hacia estas estrellas. Se entiende muy bien con el famoso ejemplo del tren que viaja en un día lluvioso pero sin viento; supongamos que nos subimos a este ferrocarril y tomamos asiento de ventanilla. Mientras el tren permanezca detenido en la estación, veremos caer la lluvia así:

Caída de la lluvia a velocidad 0.

Caída de la lluvia a velocidad 0.

En cuanto el tren se ponga en marcha, nos parecerá que las gotas de agua comienzan a caer con un cierto ángulo. Cuando la velocidad del tren iguala a la velocidad de caída de la lluvia (imagen central, abajo), este ángulo es de 45º exactos. Cuanto más rápido vayamos, más observaremos este efecto; y a gran velocidad, se nos antojará que caen casi horizontales aunque en todo momento la lluvia está cayendo directamente hacia abajo:

Caída de la lluvia a distintas velocidades

Caída de la lluvia a distintas velocidades

Por su parte, al maquinista le parecerá que la lluvia cae hacia él, cada vez más y más horizontal, procedente de un punto central en el cielo. Y el factor que se ha escaqueado un ratillo en la cabina del final, mirando hacia atrás, tendrá la impresión de que ninguna gota de agua cae hacia el tren. Sustituyendo las gotas de agua por haces de luz, empezaremos a comprender por qué si miras hacia atrás ya no se ve nada (ningún haz de luz alcanza tus ojos); mientras que en el puesto de conducción frontal, toda la luz parece proceder más y más de un solo punto central. Conforme seguimos acelerando, este efecto se va volviendo más evidente.

La aberración óptica clásica, que parece desplazar la posición de las estrellas en el cielo, funciona igual que estas gotas de lluvia. Pero la aberración relativista requiere algo más. Como nada puede viajar más rápido que la luz en el vacío, incluso viajando a la velocidad de la luz (si fuera posible) tendríamos la sensación de que la luz se inclina en un ángulo de 45º (nuestra velocidad sería igual a la «velocidad de caída» de la luz). Sin embargo, en Relatividad hay que aplicar la llamada transformación de Lorentz. Entonces, el ángulo de incidencia aparente de la luz vuelve a reducirse, aproximándose a cero: exactamente igual que pasa con las gotas de lluvia cuando nuestro ferrocarril circula a alta velocidad. El resultado final, combinado con el efecto Doppler que vimos más arriba, viene a ser como sigue:

Resultado combinado del efecto Doppler y la aberración relativista en una nave que se aproxima a la velocidad de la luz.

Resultado combinado del efecto Doppler y la aberración relativista en un objeto que se aproxima a la velocidad de la luz. El punto azul es nuestra nave espacial.

Instrumentos de la Abbás ibn Firnás a 0.8c.

Instrumentos de la Abbás ibn Firnás al 80% de la velocidad de la luz. Va observándose la dilatación temporal: el tiempo de a bordo ("proper time") ya no se corresponde con el "tiempo del mundo" ("world time").

Ahora vamos a fijarnos por un instante en el panel de instrumentos de la Abbás ibn Firnás, que podemos ver a la izquierda. Hemos recorrido los primeros cien segundos-luz, unos treinta millones de kilómetros, pero esto no es lo más notable. Lo más notable es que el tiempo de a bordo ya diverge claramente del tiempo exterior. En la Tierra han transcurrido 188 segundos desde nuestra partida, pero para nosotros han pasado sólo 149. Ya apuntamos este asunto más arriba: estamos ante la dilatación temporal. Y también ante la compresión espacial: si alguien nos viera pasar desde fuera, le daría la impresión de que estamos como achatados o comprimidos en el sentido de la marcha.

¿Cómo es esto posible? Venga, va, esta es la rayada padre de la Relatividad, que mucha gente acepta porque le dicen que es así pero no se lo acaba de creer aunque –como te conté más arriba– obligue a estar ajustando constantemente los relojes de los satélites. Hasta en aviones se ha llegado a medir. Bien, tenemos un problema aquí: esto no se puede explicar, ni siquiera contar el porqué, sin introducir todo el aparato matemático de la Teoría de la Relatividad. Por suerte, para al menos relatárnoslo, contamos con nuestro añorado amigo Carl Sagan; no voy a tratar yo de repetir torpemente en unas pocas líneas lo que él narró genialmente:


Carl Sagan hablando sobre la Relatividad en Cosmos (ve siguiendo las partes consecutivas).

De paseo por el sistema solar.

Hemos seguido acelerando la Abbás ibn Firnás hasta su velocidad de crucero, que es el 99,9% de la velocidad de la luz. Todos los efectos mencionados anteriormente se han magnificado muchísimo y lo que podemos ver ahora desde nuestro puesto de mando es esto:

Vista frontal al 99,9% de la velocidad de la luz.

Vista hacia adelante al 99,9% de la velocidad de la luz.

La aberración relativista resulta ahora enorme y la dilatación temporal es tal que por cada segundo a bordo transcurren unos 23 en la Tierra. Este efecto túnel de luz se debe fundamentalmente a la aberración. A esta pavorosa velocidad, de unos 299.500 kilómetros por segundo, nuestro sistema solar se convierte en un sitio pequeño. Estamos dando un paseo por el barrio para abrir el apetito, como si dijéramos. Enseguida tenemos que empezar a frenar, porque nos estamos acercando ya a Saturno… y frenar una cosa que avanza al 99,9% de la velocidad de la luz requiere tanto tiempo y energía como acelerarla.

¡Ahí está! Qué bonito es, ¿verdad? Como te dije, lo vemos fuertemente corrido al azul debido al efecto Doppler, puesto que aún nos estamos aproximando a él al 41% de la velocidad de la luz:

Aproximación a Saturno al 41% de la velocidad de la luz.

Aproximación a Saturno al 41% de la velocidad de la luz.

Seguimos frenando para sobrepasarlo a una velocidad inferior al 1% de la lumínica, con objeto de tomar esas medidas que queríamos hacer. Al reducir la velocidad, los efectos relativistas van desapareciendo y Saturno se nos presenta en todo su esplendor y con su color habitual:

Llegada a Saturno a 0,001c.

Llegada a Saturno al 0,001 % de la velocidad de la luz, es decir, unos 10.800 km/h (3 km/s).

Fijándonos en los instrumentos, observamos que –incluyendo la aceleración, el frenado y alguna otra pequeña maniobra– en la Tierra han transcurrido 4.500 segundos desde nuestra partida: una hora y cuarto. Sin embargo, a bordo sólo han pasado 701 segundos, poco más de once minutos. Este es el efecto de la dilatación temporal, que nos permitiría circunnavegar el universo conocido en pocas décadas utilizando una nave sólo un poco más rápida que la Abbás ibn Firnás, aunque la Tierra, el sistema solar, la galaxia y el universo conocido se hubieran reducido a polvo cósmico mientras tanto.

¿Más rápida que la Abbás ibn Firnás, capaz de viajar al 99,9% de la velocidad de la luz en el vacío? Sí. Como hemos dicho, al 99,9%, cada segundo a bordo equivale a unos 23 segundos exteriores. Y, por tanto, y un año a bordo son veintitres años para el resto del mundo. Bien: pues al 99,99%, un decimal más, cada año nuestro equivaldría a 71 años en el exterior. Al 99,99999999%, a setenta mil años. Y al 99,9999999999999%, a dos millones y medio de años. Es decir: con esta última velocidad, podríamos llegar a la galaxia Andrómeda en menos de un año de viaje para nosotros, aunque en el resto del universo hubieran pasado los dos millones y medio enteros.

Esto de la dilatación temporal relativista lo vamos a ver aún mejor conforme completemos nuestro viaje. Muy bien: ya hemos medido lo que queríamos medir aquí y aceleramos de nuevo para seguir hacia Plutón. Al alejarnos, igual que sucediera cuando salimos de la Tierra, miramos hacia atrás y vemos cómo Saturno se corre al rojo mientras la luz vuelve a distorsionarse hacia el sentido de la marcha:

Partida de Saturno a 0,15c, mirando hacia atrás.

Partida de Saturno al 15% de la velocidad de la luz, mirando hacia atrás.

También observamos cómo se oscurece, debido a la aberración óptica que tiende a concentrar la luz hacia el sentido de la marcha. Muy bien, pues ahora viene un tramito largo. Nos vamos hasta Plutón, que está a unos 5.750 millones de kilómetros de la Tierra y 4.470 millones de nuestra posición actual. Lo recorreremos al 99,9% de la velocidad de la luz, teniendo de nuevo como único paisaje el túnel de luz que observamos más arriba.

Como vamos a tardar un ratito en llegar, aprovecharé para mencionarte otro efecto óptico relativista que no vamos a ver durante este viaje, porque ya me he encargado de que no nos cruzáramos con nada por el camino. Este fenómeno es la rotación de Terrell, que se produce cuando un objeto pasa ante nuestros ojos a velocidades relativistas. En este caso, debido a fenómenos muy parecidos a los que estamos observando, el objeto aparece distorsionado, girado con respecto a nuestra posición y oscurecido:

Rotación Terrell

La rotación de Terrell. En la imagen superior, un tranvía pasa ante nuestros ojos a velocidades lentas comunes; no se observa ninguna distorsión notable. En la imagen inferior, el mismo tranvía se desplaza a velocidad relativista: la rotación de Terrell hace que nos presente "girado" con respecto a nuestra posición. La contracción espacial, el efecto Doppler y la aberración óptica, además, lo distorsionan y oscurecen.

Fin del inciso. El trayecto Saturno-Plutón dura diecisiete minutos para nosotros; en la Tierra, sin embargo, han transcurrido otras cuatro horas y cuarto largas. Bien, ahí lo tienes, arriba a la derecha:

En Plutón

En Plutón

Ya, es un planetoide eternamente congelado en los confines del sistema solar. ¿Qué te esperabas? Bueno, venga, vámonos de vuelta para la Tierra, que se hace tarde. Pon a cero los cronómetros para calcular los tiempos del viaje de regreso. Y… ¡adelante!

Universo

Los límites del universo observable se encuentran establecidos actualmente en unos 46.500 millones de años luz. Una nave espacial capaz de mantener una aceleración constante de 1g podría circunnavegarlo entero durante la vida de sus ocupantes humanos.

¿Son posibles estas velocidades? Posibles, en sentido estricto, sí: matemáticamente, no hay ningún problema en acelerar un objeto de manera constante. Si yo acelero una nave espacial a una ge (9,81 m/s2), para que la tripulación vaya cómoda y ni se entere, en cinco años de a bordo (84 para los demás) estaré al 99,9% de la velocidad de la luz. En diez años y pico, al 99,9999999%. En menos de doce, puedo estar al otro lado de la galaxia. En diecisiete y algún mes, al 99,9999999999999%, y habré recorrido más de veinte millones de años luz (en todos los casos, luego necesitaré otro tanto para frenar). En 52 años, aproximadamente una vida adulta humana, podríamos recorrer 439.070 millones de años luz (26 años acelerando y 26 frenando).

Esto conduce a una conclusión curiosa. El radio del universo observable, en estos momentos, es de unos 46.500 millones de años-luz. Y por tanto, aplicando la elemental ecuación P = 2πr, su perímetro es de 292.169 millones de años luz. Esto es: en algo menos de cincuenta y dos años, efectivamente, se puede circunnavegar el universo observable actual entero. Y cuanto mayor es la distancia, más eficaz resulta esta forma de viajar. El universo entero está a nuestro alcance si conseguimos construir una nave capaz de mantener una aceleración sostenida de una ge durante unas décadas.

Y, por supuesto, si no nos importa hacer un viaje sólo de ida en el tiempo: para el resto del cosmos, habrían pasado todos esos miles de millones de años. Como ni conocemos ni sospechamos forma posible alguna de viajar hacia atrás en el tiempo, en el siglo que lleguemos nos quedamos. Por esas fechas, haría ya mucho que nuestro Sol se habría convertido en una enana blanca, pero estaríamos aún muy dentro de la Era Estelífera: en un universo todavía ocupable y utilizable, por mucho.

¿Es realizable una nave espacial así? Puesss… no lo sabemos. :-D Como te dije al principio, con la tecnología actual, desde luego que no. Sin embargo, la ciencia actual ya viene planteando algunas posibilidades muy interesantes, que te contaré cuando hablemos más en profundidad de la Abbás ibn Firnás. Preguntarnos ahora mismo si algún día habrá naves espaciales de empuje constante capaces de aproximarse a la velocidad de la luz sería como preguntarle a un señor del siglo XVII si sería posible construir aviones supersónicos. Bueno, no tanto. Nosotros empezamos a tener algunas aproximaciones. Esto es, pues, algo que pertenece al reino del ya veremos.

Ah, sí, como en el camino de vuelta tenemos que volver a pasar muy cerca de Saturno, vamos a aprovechar para observar la acción de todos estos efectos ópticos relativistas cuando sobrepasamos un objeto próximo. Prepara la cámara y mucha atención, porque el sobrevuelo va a ser muy breve, yendo como vamos de nuevo al 99,9% de la velocidad de la luz. Atención… atención… ¡ya!

Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 1).

Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 1).

Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 2).

Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 2).

Extraño, ¿eh?

El tramo Plutón-Tierra dura diecinueve minutos y medio a bordo de la Abbás ibn Firnás, aceleraciones y frenazos incluidos, pero en la Tierra transcurren otras cinco horas y media largas. Así pues, nuestro viaje hasta los confines del sistema solar se está tomando casi once horas terrestres; y sin embargo, aquí a bordo sólo han pasado cincuenta minutos. Ahora ya estamos llegando a casa y hay radares de la DGT, o sea que reducimos la velocidad por debajo del 20% de la lumínica y nos aproximamos con cuidadito. Podemos ver la Tierra, la Luna y hasta el Sol corridos al azul, pues nos estamos acercando a ellos:

Llegando a la Tierra al 19% de la velocidad de la luz.

Llegando a la Tierra al 19% de la velocidad de la luz.

Y, finalmente, nos establecemos de nuevo en una órbita de aparcamiento alrededor de la Tierra. Los fenómenos ópticos relativistas dejan de ser evidentes (aunque siguen ahí). Ya nos podemos ir a almorzar (según el tiempo terrestre) o a recenar (según nuestro tiempo de a bordo). A tu criterio. El resto del domingo, te lo dejo libre.

La Abbas ibn Firnás se halla ya estacionada en órbita alrededor de la Tierra.

La Abbas ibn Firnás se halla estacionada en órbita alrededor de la Tierra.

Continuará: La nave espacial Abbás ibn Firnás

175 Comentarios Trackbacks / Pingbacks (3)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (79 votos, media: 4,91 de 5)
Loading...
Be Sociable, Share!

La bomba del juicio final.

Autoextinción humana.

En este blog ya te he contado cómo funciona un arma nuclear. Y un arma termonuclear. Y un misil balístico intercontinental. Y unas cuantas cosas más, como las posibilidades reales de los satélites espías, los aviones sin piloto o las armas láser. Hasta hemos hablado del HAARP y la bomba del arco iris, para acabar con la civilización moderna en menos de un segundo, aunque tenga poco que ver con las especulaciones de los conspiranoicos. ¿Qué nos falta? Bueno, pues aún nos faltan cosas, claro. En esto de aplicar el ingenio para joder al prójimo (en ambos sentidos del término, el bueno y el malo), los seres humanos hemos resultado ser un bicho excepcionalmente brillante.

Claro que, por otro lado, también fuimos capaces de erradicar la viruela y otras muchas enfermedades, realizar viajes interplanetarios, crear elementos nuevos, empezar a comprender el cosmos del que formamos parte y otras mil cosas que nos permitieron abandonar un pasado de mierda. Sí, los seres geniales siempre son así de contradictorios. Un delfín jamás construiría un Treblinka nazi, ni podría organizar a los jemeres rojos, ni perpetraría la colonización imperialista del Congo, ni funda tiranías teocráticas, ni se dota de dioses vengativos; pero tampoco es capaz de traer niñas pequeñas desde más allá de la muerte o preguntarse con quién más comparte la realidad. En suma, colectivamente y a pesar de todos los pesares, según mi personal opinión no nos ha ido del todo mal desde que echamos a andar por los caminos de la ciencia.

Leó Szilárd a los 18 años de edad.

Leó Szilárd a los 18 años de edad.

Hablando de seres muy geniales y muy contradictorios, permíteme presentarte al físico de origen húngaro Leó Szilárd, discípulo de Einstein y Von Laue. Hay distintas maneras de describir al doctor Szilárd, todas ellas a medio camino entre «el jodío genio» y «el puto amo», pero elevado al cubo y multiplicado por alguna potencia de diez. Resulta difícil sobreestimar su inteligencia, capacidad y visión de futuro. Entre sus aportaciones a la humanidad se cuentan el motor de Szilárd, el refrigerador por absorción y la reacción nuclear en cadena que abrió el paso a la Era Atómica. Junto con Enrico Fermi, es el inventor del reactor nuclear.

Desafortunadamente, sus creaciones también incluyen la bomba atómica (solicitó la patente en fecha tan temprana como 1934) y una hipotética bomba del juicio final capaz de acabar con la humanidad entera, que vamos a comentar en este post. A tenor de estas dos últimas invenciones se podría pensar que el doctor Szilárd, por muy genial que fuese, era también un pelín hideputa. Nada más lejos de la realidad. Leó Szilárd, un judío secular de ideas izquierdistas y esencialmente pacifista, estaba considerado por todos los que le conocieron como un tipo estupendo, una bellísima persona y un trabajador nato: la clase de hombre con el que cualquiera se iría a tomar cañas y no te importaría si le tirara los trastos a una hija tuya aunque fuese algo extravagante. Se decía sobre él que de tan bueno y cariñoso y currante y genial, casi daba miedo.

Aunque era el padre de la bomba atómica y el verdadero redactor de la carta de Einstein a Roosevelt para recomendar su construcción, fue también el impulsor de la carta de los 155 para pedir que no se usara contra poblaciones civiles, sino que se realizara una demostración disuasoria en lugar despoblado. Obviamente, en esto último no le hicieron ni caso. Persistente, fundó junto a gente como Einstein o Linus Pauling la primera organización pacifista y antinuclear del mundo: el Comité de Emergencia de los Científicos Atómicos. Más tarde, el Council for a Livable World. Y en cuanto llegó a la conclusión de que este nuevo tipo de armamento devastador había llegado para quedarse, no quiso tener nada más que ver en el asunto y cambió de profesión: se hizo biólogo molecular. Sí, hablamos de la clase de inteligencia que es capaz de saltar de la física atómica a la biología molecular como quien se cambia de pantalones y continuar realizando contribuciones valiosas.

¿Qué es lo que empuja a un tipo tan listo y tan majo para convertirse en el padre de las armas nucleares y en el teórico de la bomba del juicio final? Sencillo: el miedo. Además de todas estas capacidades, Szilárd era un brillante analista político que supo predecir el advenimiento de la Primera Guerra Mundial, el ascenso de los nazis al poder y su conquista de Europa. Esto le empujó, judío y rojillo como era, a residir en hoteles con la maleta siempre preparada. En 1933, el mismo año en que Hitler se convertía en canciller de Alemania, dijo aquello de «estos aquí no me pillan de pardillo» y se marchó a vivir en el Reino Unido para trabajar con Ernest Rutherford. En 1936, entregaba al Almirantazgo Británico la patente de la bomba atómica que poseía con el propósito de garantizar su secreto.

Alberto Einstein y Leo Szilard

Leó Szilárd con Albert Einstein.

Aún le debió parecer que no había puesto suficiente océano por medio entre su persona y el régimen de Herr Hitler. En 1938, un año antes de que empezara la Segunda Guerra Mundial, aceptó una propuesta de la Universidad de Columbia y se mudó a Nueva York. Durante este proceso se fue encontrando con otros refugiados atómicos huídos de los nazis como Enrico Fermi, Edward Teller, Eugene Wigner, Lise Meitner, Hans Bethe o el propio Albert Einstein (y posteriormente con Niels Bohr): la más magnífica colección de cerebros reunida jamás, todos con un miedo y un enemigo común. Desde allí, Szilárd seguía con atención los avances alemanes en física nuclear hasta que éstos fueron clasificados. Entonces, temiendo que la Alemania nazi pudiera construir una bomba atómica y apoderarse del mundo con ella, sugirió a Einstein que firmara la cartita de marras a Roosevelt. El resto es historia.

Y, derrotados ya los nazis y sus aliados euroasiáticos excepto Franco, ¿a qué vino el puntito de la bomba del juicio final, postulada en febrero de 1950? Pues a una razón un poco más retorcida, pero también sustentada en el temor: observando cómo la Humanidad se deslizaba hacia una posible guerra nuclear, Szilárd quiso advertir a todo el mundo de los peligros de seguir semejante camino por el procedimiento de meterles el miedo en el cuerpo. Quiso decir que por esa vía íbamos propulsados a la autodestrucción de la humanidad, a la extinción, y que lograrlo de manera absoluta sería tan sencillo como… como esto:

Destrucción mutua asegurada por la vía de la extinción.

Lo que vino a decir Szilárd es que cualquier potencia nuclear sometida al terror absoluto de la devastación atómica, incluso ya derrotada, podía garantizar la destrucción mutua asegurada mediante una última y definitiva represalia total sin salir siquiera de su propio territorio por el expeditivo procedimiento de matar a todo el mundo literalmente; con lo que no tenía sentido intentar vencer en una guerra así, ni gastar recursos para prepararla, porque estaba empatada a cero de antemano. A población cero, quiero decir.

En aquellos momentos de principios de la Era Atómica, esta idea le parecía exageradísima a los políticos, a los militares y a buena parte de la sociedad. En 1950 faltaba casi una década para el desarrollo del primer misil balístico intercontinental, la URSS acababa de detonar su primera bomba nuclear, el número de núcleos explosivos en todo el mundo ascendía a unas pocas decenas y aún iba al colegio buena parte de la gente que se apuntaría entre sí con decenas de miles de cabezas termonucleares veinte o treinta años después. El invierno nuclear ni se sospechaba todavía. Por lo que respectaba a los presidentes y generales, las armas atómicas eran aún sólo una bomba gorda (en el sentido explosivo, pero también por su peso) que había que transportar trabajosamente hasta sus blancos con bombarderos emergidos de la Segunda Guerra Mundial. Sin embargo, científicos de la talla de Szilárd ya preveían lo que se avecinaba y quisieron dar la alarma. Pero los políticos, militares, periodistas y el público estaban muy cegados con sus delirios atómicos de grandeza, poder, éxito y falsa seguridad.

Gráfico en la patente de la bomba atómica de Leó Szilárd

Gráfico en la patente original de Leó Szilárd para una cierta "bomba atómica" (1934)

Así que Szilárd quiso hacerles ver la realidad. Y el hombre tan bondadoso que daba miedo se sentó y pergeñó un arma capaz de exterminar a la especie humana entera con una sola explosión o un número muy reducido de explosiones en cualquier parte del mundo. Quizá así toda aquella gente poderosa se aviniera a razones. No podían estar tan locos, ¿no? Quizá la gente escucharía.

Incluso usando bombas termonucleares, por aquellos tiempos aún en el tablero de diseño, causar un daño directo a la Tierra tan grande que condujera a la extinción humana completa resultaba impracticable –y en gran medida sigue siéndolo, en ausencia de tecnologías de la antimateria y sin tener en cuenta el invierno nuclear o los efectos sinérgicos de una gran cantidad de detonaciones durante el transcurso de una guerra termonuclear a gran escala–. Así que Szilárd fue por otro camino: dado que todos los seres humanos dependemos de la estrecha franja vertical de aire respirable que rodea a la Tierra y los primeros metros de mar, si esta capa (y/o el suelo) resultara contaminada con dosis mortíferas de radiación por todo el globo durante el tiempo suficiente, entonces la bomba del juicio final sería posible. Tendría que ser una bomba sucia o, más técnicamente, un arma de radiación residual incrementada.

Sin embargo, esto resulta más fácil de decir que de hacer. Por un lado, no hay isótopos que sean al mismo tiempo muy radioactivos y muy duraderos: cuanto más activo es un isótopo, antes se consume. O, dicho más técnicamente, menor es su vida media y antes transmuta en otras cosas que no son radioactivas o son poco radioactivas. Por otro, cubrir cada kilómetro cuadrado de la Tierra con suficiente cantidad de isótopos radioactivos como para cargarse a todo bicho viviente requiere una notable cantidad de material. En consecuencia, esta sustancia aniquiladora no puede ser muy cara y el mecanismo de dispersión debe ser extremadamente eficaz. A favor juegan los vientos, que tienden a repartir la contaminación por todo el planeta, como podemos ver en estas simulaciones de 2007 que contemplan distintos escenarios de dispersión de los humos en una guerra nuclear tradicional:

Animación con la diseminación de 5 Tg de humos en caso de guerra nuclear entre India y Pakistán.

Animación con la diseminación de 5 Tg de humos en caso de guerra nuclear entre India y Pakistán, a partir de un 14 de mayo, utilizando todo su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad de Colorado, la Universidad Rutgers y la Universidad de California en Los Angeles: Climatic Consequences of Regional Nuclear Conflicts (en Atmospheric Chemistry and Physics, 7, 2003–2012, 2007). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría fuertes alteraciones climáticas y problemas agrícolas pero probablemente no un invierno nuclear global.

Animación con la diseminación de 50 Tg de humos en caso de guerra nuclear entre EEUU y Rusia usando un tercio de su arsenal en 2007.

Animación con la diseminación de 50 Tg de humos en caso de guerra nuclear entre Estados Unidos y Rusia, a partir de un 14 de mayo, utilizando un tercio de su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad John Hopkins y la Universidad Rutgers: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences (en Journal of Geophysical Research, Vol. 112:2007, D13107, doi:10.1029/2006JD008235.). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría con bastante probabilidad un invierno nuclear global.

Animación con la diseminación de 150 Tg de humos en caso de guerra nuclear entre EEUU y Rusia usando todo su arsenal en 2007.

Animación con la diseminación de 150 Tg de humos en caso de guerra nuclear entre Estados Unidos y Rusia, a partir de un 14 de mayo, utilizando todo su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad John Hopkins y la Universidad Rutgers: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences (en Journal of Geophysical Research, Vol. 112:2007, D13107, doi:10.1029/2006JD008235.). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría con gran probabilidad un invierno nuclear global fuerte y prolongado.

Esta acción de los vientos es clave para el diseño de la bomba del juicio final: si se consigue propulsar a la alta atmósfera suficiente cantidad de material fuertemente irradiado y capaz de mantener la radioactividad durante un periodo prolongado, en vez de un invierno nuclear nos hallaríamos ante un verano radiológico… y muy calentito. Pero, ¿qué clase de material puede ser este? ¿Y cómo aseguraremos su diseminación de semejante modo?

Cobalto refinado electrolíticamente.

Cobalto natural (cobalto-59) refinado electrolíticamente, con una pureza del 99,9%. Mediante activación neutrónica se transforma en cobalto-60, un isótopo radioactivo con 5,26 años de vida media, potente emisor de radiación gamma.

La bomba-C.

Szilárd consideró varios isótopos posibles para su bomba del juicio final y finalmente se centró en cuatro: el cobalto-59, el oro-197, el tantalio-181 y el zinc-64. Para la propulsión, lo tuvo claro: una bomba termonuclear de alta potencia, muchos megatones, sobradamente capaz de proyectar el material a la estratosfera y más allá. Ninguno de todos estos isótopos es radioactivo en condiciones normales: se trata de elementos corrientes bajo su forma más normal en la naturaleza. El oro es raro y caro, así como el tantalio, pero zinc hay a patadas y el cobalto se extrae a razón de más de 50.000 toneladas anuales.

La idea radica en que, sometidos a la intensa radiación neutrónica generada por un explosivo termonuclear, estos cuatro elementos absorben un neutrón y pasan a convertirse –respectivamente– en cobalto-60, oro-198, tantalio-182 y zinc-65. Y, mi estimado lector, mi estimada lectora, eso no es la clase de cosa que quisieras ver en el aire que respiras. Los cuatro son inestables y virulentamente radioactivos. Si prescindimos del oro y el tantalio por caros, el zinc-65 tiene una vida media de 244 días y el cobalto-60, de cinco años y cuarto antes de que 1/e del material vuelva a estabilizarse.

Así pues, la bomba del juicio final de Leó Szilárd, el pacifista bondadoso, sería una bomba de cobalto. Existe un dispositivo médico para radioterapia llamado comúnmente bomba de cobalto, con gran utilidad en el tratamiento del cáncer. Sin embargo, la bomba de cobalto de Szilárd tiene poco que ver: sólo se parecen, de forma bastante paralela, en su mecanismo de acción a nivel nuclear. La cuestión en ambos casos es que el cobalto-60 emite dos rayos gamma para convertirse en níquel corriente, con una energía 320 veces superior a la del radio; y sigue haciéndolo durante mucho tiempo. En su potencial aplicación militar, asegura una notable cantidad de fuentes de radiación gamma repartiéndose por toda la atmósfera y permaneciendo en ella o en el suelo y el mar a lo largo de años.

Para que nos hagamos una idea: en una bomba termonuclear de fisión-fusión-fisión corriente, la contaminación producida por la funda exterior o el tamper interior de uranio-238 es muy intensa al principio pero decae rápidamente. Una hora después de la explosión de un arma termonuclear normal, la radiación emitida por los productos derivados del U-238 es 15.000 veces más intensa que la ocasionada por el cobalto-60. Una semana después, 35 veces más. Un mes después, cinco veces. A los seis meses, son iguales. Pero en un año la radiación generada por el cobalto-60 es ocho veces superior a la de los productos resultantes de la fisión del uranio-238, y a los cinco años, 150 veces más intensa. El cobalto asegura que la radiación producida por una explosión atómica perdurará durante tiempo prolongado. Toda vida expuesta a esta radiación irá deteriorándose y ocasionalmente mutando, en una especie de Hiroshima interminable que puede extenderse a lo largo de décadas antes de que la radioactividad retorne a cifras sensatas. Si se consigue cubrir todo el planeta con cobalto-60, las probabilidades de supervivencia para la especie humana son francamente limitadas: vendría a ser algo así como someter a toda la humanidad a radioterapia permanente.

Disposición especulativa de una carga del juicio final.

Disposición especulativa de una posible "carga del juicio final". 1.- Acceso / control. 2.- Operaciones / mantenimiento. 3.- Generador eléctrico autónomo. 4.- Controlador automático (posible "mano del hombre muerto"). 5.- Carga termonuclear de alta potencia. 6.- "Balsa" de cobalto. - Esta disposición provocaría también que, si alguien atacara la instalación con un arma nuclear, ocasionaría parcialmente el efecto que pretende evitar. (Clic para ampliar)

Dicen que Szilárd bautizó su creación como bomba-C. C, de cobalto. Estimó que, por el sencillo procedimiento de sustituir la funda de uranio por otra de cobalto en cuatrocientas de los miles de bombas atómicas que se llegarían a construir, bastaría para cepillarse a la humanidad entera. O, alternativamente, se podría construir un solo gran dispositivo en cualquier lugar. O unos pocos. Y se dedicó a hablar de ella abiertamente, incluso en la radio, buscando provocar la reflexión a través del temor.

Inmediatamente, surgieron partidarios del armamento nuclear tratando de demostrar que tal cosa no resultaba posible. James R. Arnold, del Instituto de Estudios Nucleares de Chicago, intentó rebatir su idea sacando los cálculos matemáticos para semejante arma de extinción… y concluyó que era posible, sin duda, con una masa de unas 110.000 toneladas de cobalto. Caro y poco practicable, pero no imposible. Otros estudios redujeron la cifra significativamente. En principio, para cubrir cada kilómetro cuadrado de la superficie terrestre con un gramo de cobalto-60, sólo se requieren 510 toneladas; pero esto supone una dispersión perfecta imposible de obtener. En algún punto entre las 510 y las 110.000 toneladas se encuentra la verdad. Si uno se conforma con asegurar el exterminio en un área determinada, o con hacerle la vida muy difícil al mundo entero aunque no llegue a ocasionar la extinción, la cantidad desciende mucho más. Utilizando cargas múltiples, la eficiencia en la dispersión aumenta enormemente.

Pero no fueron estos detractores conversos los que horrorizaron a Szilárd, sino descubrir que le estaban tomando en serio. El geoquímico nuclear Harrison Brown, que se había destacado aislando plutonio para el proyecto Manhattan, declaraba triunfalmente a quien le quisiera escuchar: «las potencias occidentales podrían hacer estallar bombas de hidrógeno-cobalto en una línea norte-sur sobre la longitud de Praga, que destruiría toda vida en una franja de mil quinientas millas de ancho, extendiéndose desde Leningrado a Odessa; y tres mil millas de profundidad, desde Praga hasta los Montes Urales. Este ataque producidía una tierra quemada sin precedentes en la historia.» Diversas autoridades políticas y militares comenzaron a ponerse en contacto con él para considerar las posibilidades de su nueva arma. La gente que tomaba las decisiones no sólo no se había asustado, sino que se estaban interesando en construir esas temibles bombas de cobalto. Quizás fue en este momento cuando el bueno de Leó, que ya era el padre de un arma devastadora y no quería serlo de dos, decidió abandonar definitivamente la física atómica –cosa que ya había empezado a hacer en 1947– y pasarse con armas y bagajes a la biología molecular. No le faltaron acusaciones de traidor, comunista, perroflauta y prosoviético por negarse a seguir desarrollando la bomba del juicio final.

Portacontenedores

Hasta la más poderosa de las armas termonucleares actuales cabe muy sobradamente en un contenedor estándar de 20 pies, con o sin tamper o funda de cobalto. Incrementar su capacidad contaminante sería tan sencillo como introducir más cobalto común en los contenedores de alrededor, sin ningún límite específico. Un arma así ni siquiera necesitaría entrar a puerto para provocar inmensa mortandad de alcance regional y graves problemas debido al arrastre de la contaminación por los vientos. Una tonelada de cobalto vale actualmente unos 33.000 euros; usando zinc en su lugar, el precio cae a aproximadamente 1.700 euros por tonelada.

¿Pero es realmente practicable?

Todos los indicios apuntan a que ni EEUU ni la URSS ni nadie más llegaron a construir realmente una de estas armas de hidrógeno-cobalto. Sin embargo, resulta evidente por sí mismo que no existe ningún motivo por el que no se pueda envolver un arma nuclear o termonuclear en una cantidad mayor o menor de cobalto común.

Se ha postulado recientemente de modo muy insistente la posibilidad de que un grupo terrorista pudiera optar por una bomba sucia, recurriendo a explosivos convencionales con residuos nucleares en vez de un arma atómica verdadera: esto no tendría ni una fracción del efecto de una bomba de cobalto y su alcance sería eminentemente local. La posibilidad de que un grupo terrorista consiga y opere un arma nuclear se ha demostrado francamente remota: son equipos tecnológicos complejos cuyas exigencias de mantenimiento y operación pegan mal con la naturaleza clandestina de estas organizaciones. En todo caso, una bomba del juicio final digna de tal nombre es asunto de estados modernos o entidades de similar poder y sofisticación.

¿Y por qué no la crearon? Básicamente, porque su utilidad militar es reducida y existen maneras más flexibles y selectivas de llevar la devastación total al enemigo sin necesidad de cargarse a media humanidad… o la humanidad entera.

¿Sería verdaderamente capaz de cargarse a la humanidad entera? Es difícil de decir. Con el suficiente cobalto, sí. ¿Pero cuánto es ese cobalto? Aparentemente, según los estudios mencionados más arriba, harían falta unas decenas de miles de toneladas. ¿Cuánta radiación hace falta para matarnos? También resulta complicado de asegurar. En general, se considera que una absorción de cuerpo entero superior a ocho grays es prácticamente letal, y una de treinta, mortífera con toda seguridad. Sin embargo, estos estudios contemplan una absorción puntual, en un solo episodio (una explosión, un accidente, etc.) del que normalmente somos rescatados y evacuados; por su parte, los pacientes de radioterapia pueden absorber fácilmente treinta grays en lugares localizados del organismo a lo largo de un tratamiento. En general, somos más resistentes a la radiación cuando la absorción se produce por partes (en episodios separados en el tiempo y/o en puntos determinados del cuerpo).

Diseño esquemático de una bomba de hidrógeno-cobalto

Diseño esquemático de una bomba termonuclear de hidrógeno-cobalto. Para entender el funcionamiento de un arma de esta clase, lee el post "Así funciona un arma termonuclear". (Clic para ampliar)

No parece haber mucha información pública disponible sobre los efectos de una irradiación sostenida en el tiempo como la que podría ocasionar una de estas bombas de cobalto. En principio la absorción se acumularía rápidamente, conduciendo a la muerte con celeridad. Sin embargo, los seres humanos también somos notablemente capaces en la habilidad de salir por patas, ponernos a cubierto y buscarnos la vida en condiciones extremas. Aunque la mortandad sería enorme y la calidad de vida empeoraría radicalmente (por no mencionar el nivel de vida, que se iría a paseo de hoy para mañana), tengo mis dudas de que no pudiera sobrevivir una fracción significativa de la especie humana a menos que la diseminación sea abismalmente alta (imprácticamente alta, de hecho). Si estas explosiones atómicas de hidrógeno-cobalto se produjeran durante el transcurso de una guerra nuclear, en combinación con el efecto invernadero provocado por la misma, entonces sí considero bastante probable que nos viésemos abocados a una situación Toba.

Como te digo, parece que al final la idea de Szilárd tuvo algún efecto parcial y este tipo de arma no se llegó a construir. Realmente, es que no tiene mucho sentido: a pesar de esas organizaciones extrañas que crean los guionistas para las pelis, no conozco ninguna idea política, doctrina económica o dogma religioso digno de mención que proponga el exterminio total de la especie humana (incluyendo el suicidio completo, claro). Militarmente, tampoco tiene demasiada lógica: los soldados quieren alcanzar la victoria y derrotar al enemigo, o en su caso disuadirle, no erradicar toda vida animal del planeta Tierra. En términos generales, todo el mundo tiene hijos, sobrinos, ahijados o a sí mismos; la mayoría de personas –incluidos quienes detentan algún cargo de poder– quiere dejar alguna clase de herencia positiva para el futuro a título individual o colectivo, sobre unas convicciones más acertadas o más equivocadas. Como Leó Szilárd, por ejemplo, el hombre bueno que inventó la manera de matarnos a todos. Y para eso, tiene que haber un futuro.

112 Comentarios Trackbacks / Pingbacks (22)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (83 votos, media: 4,86 de 5)
Loading...
Be Sociable, Share!

Desde el Sol hasta los ojos

Cabalgamos sobre la luz desde que surge en el corazón del Sol
hasta que llega a tus ojos y contribuye a formar
tus pensamientos, tus emociones y tu visión del mundo.

Monumento a Alberto Einstein en Ulm

Don Alberto "el Pelanas" no aprobaría este post. O, al menos, nuestro traje y el visor de nuestro casco. (Monumento a Albert Einstein en su ciudad natal de Ulm, Alemania)

Embútete el casco a fondo y agárrate bien fuerte a mi barriga, que hoy vamos a hacer un viaje curioso a una velocidad más curiosa todavía. Va a ser una carrera breve: sólo dura 499 segundos. Pero no va a ser una carrera corta, porque nos vamos a montar en un fotón de luz a su paso por la fotosfera solar y lo cabalgaremos hasta que llegue a la Tierra y grabe algo en un cerebro humano; o sea, un poco menos de ciento cincuenta millones de kilómetros. Sí, a la velocidad de la luz, este tramito se recorre en ocho minutos y diecinueve segundos exactos. Comparado con nosotros, el Dani Pedrosa ese va a ser un pringao.

Para nuestro viaje, nos vamos a dotar de dos objetos mágicos; esto es, dos quimeras, fábulas o como quieras llamarlo que violan las leyes fundamentales de la física y muy especialmente la Teoría de la Relatividad Especial de don Alberto, el Pelanas. El primero es un traje de cuero de unicornio translumínico, con botas, capucha y guantes y todo, que nos va a proteger del calor, la aceleración y las radiaciones y nos permitirá agarrarnos al fotón para avanzar con él a la velocidad de la luz; esto último, poseyendo masa como poseemos, jamás podríamos hacerlo en la realidad (aunque sí acercarnos mucho). El segundo va a ser un visor de cristal de la Isla de San Borondón para nuestros cascos; enseguida verás por qué. Recuerda: estas son cosas enteramente mágicas que no existen ni pueden existir en nuestro universo. Además, la física cuántica introduciría algunas objeciones a eso de localizar y agarrarse a un foton en particular; vamos a ignorarlas también. Ah, sí, y la distancia indicada al Sol es la distancia media. Que luego me dirán que si soy poco riguroso y que si os meto en la cabeza fantasías que no son y tal. ;)

Preparados.

La luz del Sol –una estrella corriente, de tipo G2V, situada en el Brazo de Orión– se origina en su núcleo. Ahí ocurren las grandes reacciones termonucleares donde también se forma el polvo de estrellas que nos compuso junto al hidrógeno primordial. Estas reacciones termonucleares de fusión son resultado del incremento de presión y temperatura provocado por la gravedad que atrae entre sí a los átomos de los soles (en su mayor parte, hidrógeno); y es esta misma gravedad la que contiene normalmente toda esta energía en un único lugar, impidiendo que se disperse por ahí sin llegar a formar un solecito ni nada. El problema fundamental para el desarrollo en la Tierra de la energía nuclear de fusión radica, precisamente, en que aquí no tenemos (ni deseamos…) una enorme gravedad para garantizar la contención y nos tenemos que buscar otras maneras.

Esta energía de fusión se expresa esencialmente bajo la forma de fotones, que viajan a la velocidad de la luz y tienden a salir despedidos en todas direcciones. Sin embargo, como en el interior de las estrellas hay mucha masa a gran densidad, pronto chocan con algún átomo y son absorbidos y re-emitidos. Es decir: los fotones permanecen rebotando por dentro del Sol durante largo tiempo hasta que logran alcanzar su superficie. Tradicionalmente se dice que les cuesta millones de años, pero según la NASA esto no es cierto: sería más bien entre un mínimo de diez mil y un máximo de ciento setenta mil años.

También se podría discutir si se trata del mismo fotón. A fin de cuentas, un fotón absorbido se convierte en otras cosas, y el emitido poco después no tiene por qué ser el mismo. Por otra parte, como todos los miembros de cada tipo de partículas subatómicas son idénticos entre sí, podríamos decir que nos da lo mismo. En fin. El caso es que nuestro fotón o el linaje de nuestro fotón procede del núcleo solar, ha atravesado la zona radiante y la zona convectiva y ahora se está aproximando a la fotosfera, desde donde podrá emitirse por fin hacia el espacio exterior.

Estructura simplificada del sol

Estructura simplificada del Sol. 1.- Núcleo solar. 2.- Zona radiativa. 3.- Zona convectiva. 4.- Fotosfera. 5.- Cromosfera. 6.- Corona (se extiende a gran distancia). 7.- Manchas solares. 8.- Gránulos. 9.- Anillos coronales.

Cuasi-Alineación planetaria el 14 de abril de 2017

Disposición de los planetas interiores del sistema solar el 14 de abril de 2017 a las 00:00 UTC. Simulador del sistema solar, NASA. (Clic para ampliar)

Listos.

El día más idóneo de los próximos años para hacer nuestro viaje sería el 14 de abril (¡qué casualidad!) de 2017: Mercurio y Venus se hallarán estupendamente dispuestos a ambos lados y bastante cerca de la línea imaginaria que une el Sol y la Tierra, en lo que vendría a ser casi una alineación Sol-Mercurio-Venus-Tierra. Sin embargo, el 11 de febrero de 2014 tampoco está tan mal y cae más pronto. Otras fechas posibles para tener una vista razonablemente buena de los planetas interiores rocosos de nuestro Sistema Solar (hasta la Tierra) serían a finales de septiembre de 2016 o, ya un poco peor, a mediados de julio de 2012.

Una vez elegida la fecha, nos situamos en las cercanías del Sol con nuestro traje de unicornio translumínico y nuestro visor de cristal de la Isla de San Borondón para agarrarnos a un fotón. Digamos que nos hemos teletransportado hasta la fotosfera, que es el lugar donde se emite la luz de las estrellas; o, más rigurosamente, la región donde los fotones ya pueden escapar libremente al exterior. La fotosfera es una capa solar relativamente fresquita, a sólo un poquito más de 5.500 ºC (5.800 K), compuesta por gases muy tenues. Nuestro traje y nuestro visor mágicos empiezan a actuar, protegiéndonos del calor, de la radiación y de la intensísima luz que nos dejaría ciegos en un instante, por no mencionar el brutal tirón gravitatorio. Todo a nuestro alrededor tiene el aspecto de un plasma brillante, turbulento e indistinguible, una especie de bruma increíblemente luminosa. La bola que vemos de una estrella es su fotosfera, pues de ahí emerge su luz.

Eso significa que aquí hay trillones de fotones escapando hacia el espacio exterior. Podemos agarrarnos a cualquiera de ellos, pues como ya hemos dicho, todos son exactamente idénticos entre sí. ¿Cuál te gusta más? ¿Ese que viene por ahí? No, mejor ese otro, que es de onda más larga y se viaja más cómodo. Pues venga, tres, dos, uno…

¡Ya!

Factor de Lorentz en función de la velocidad

El factor de Lorentz (γ) indica la contracción de la longitud espacial y la dilatación temporal en función de la velocidad. Conforme la velocidad se aproxima a la de la luz, la dilatación temporal tiende a infinito. Especulativamente, en un objeto que viaje a la velocidad de la luz, la dilatación temporal es infinita y el tiempo no pasa en absoluto. Sólo las ondapartículas sin masa, como los fotones, son capaces de viajar a la velocidad de la luz; y nada que contenga materia o información (ni siquiera los fotones) puede superarla. Así pues, para "cabalgar un fotón" tendríamos que perder totalmente la masa y el tiempo no transcurriría para nosotros.

¡Móntalo! ¡Muy bien, ya estamos sobre el fotón, disparados a la velocidad de la luz hacia el espacio exterior! Eso son casi trescientos mil kilómetros por segundo, compi; ya tienes algo para vacilar por ahí, pero cuidado con no despeinarte. O soltarte. En el mundo real, ahora mismo el tiempo se detendría instantáneamente para nosotros por compresión temporal relativista. Quedaríamos algo así como como congelados y no podríamos hacer nada más a menos que algo nos descabalgara del fotón; entonces, pensaríamos que nuestro viaje ha sido instantáneo aunque hayamos acabado por la parte de A1689-zD1. De hecho, lo habría sido para nosotros: el tiempo de a bordo en un ente viajero a la velocidad de la luz sería siempre cero y su reloj nunca avanzaría ni una minúscula fracción de segundo. Sería como la vida eterna y la eterna juventud, sólo que en una parálisis total… si no fuera porque tal cosa no puede suceder en absoluto. No en este universo, no en esta realidad. Pero nuestro traje de cuero de unicornio translumínico nos mantiene en una… eh… bueno, eso, que es mágico, ¿no? Así pues, el tiempo sigue corriendo exclusivamente para nosotros con normalidad según el marco de referencia terrestre (¡sí, ya…!).

¿Que ahora tampoco ves nada, dices, como si la realidad hubiera desaparecido por completo? Bueno, es normal: al ignorar la Relatividad, nos acabamos de cargar como un centenar de leyes esenciales de la naturaleza, nuestro marco de referencia es absurdo y estamos en un no-lugar donde las matemáticas que rigen este universo dan no-resultados como divisiones por cero, infinitos sobre infinitos y límites asintóticos a mogollón. Una vez más: la realidad no tiene sentido ninguno si hay un objeto con masa desplazándose a la velocidad de la luz. Y nosotros somos dos. El no-lugar donde nos hemos no-metido al cabalgar el fotón no es ni siquiera la nada. O incluso la no-nada. Por tanto, activa tu visor mágico de cristal de la Isla de San Borondón para observar el mundo como si estuviéramos viajando a velocidades sublumínicas corrientes. ;)

¿Mejor así? Ya te dije yo que eso que le soplan al cristal los elfos de San Borondón es la caña. No, no te voy a contar en qué consiste: estamos viajando sobre un fotón a la velocidad de la luz en el vacío, así que este es un muy mal momento para que te pongas a vomitar con grandes arcadas.

¿Que sigue sin verse gran cosa? Un poco de paciencia: es que estamos aún muy cerca del Sol. En la primera centésima de segundo-Tierra hemos atravesado la cromosfera y la región de transición, dos delgadas capas gaseosas de la periferia solar compuestas por hidrógeno, helio y metales que brillan tenuemente. La temperatura ha subido desde los cinco mil y pico grados al millón de grados. ¿Te cuento una cosa intrigante? Nadie sabe realmente por qué. Lo llamamos el problema del calentamiento coronal y se cotillea por ahí que hay un premio Nobel calentito esperando a quien logre darle solución.

Merece la pena detenerse un instante en él, porque es un asunto sorprendente. Lo lógico sería que la temperatura descendiese conforme nos alejamos más y más del Sol, de la misma manera que el calor de una hoguera se percibe cada vez menos al apartarnos del fuego. Sin embargo, en las capas exteriores del sol la temperatura es cientos de veces más elevada que en la fotosfera –la bola de luz– y casi tanto como en las profundidades de la zona de convección por donde pasó nuestro fotón o su linaje antes de salir: entre uno y dos millones de grados.

Lazos en la corona solar.

Lazos o anillos coronales en el Sol, de naturaleza electromagnética. Imagen obtenida por el telescopio espacial TRACE de la NASA.

Hay varias hipótesis al respecto, y una de ellas está relacionada con los inmensos campos electromagnéticos de la corona, donde nos hallamos tras el primer segundo-Tierra de viaje sobre nuestro fotón. ¿Ves esos monumentales lazos brillantes que nos rodean? Son de naturaleza electromagnética, y en torno a ellos se forman las prominencias solares. Las grandes erupciones solares se generan también por aquí.

Estamos, pues, atravesando la corona: una extensa región, muy caliente, de gases en estado plasmático cada vez más tenues conforme nos adentramos en el espacio interplanetario. Tres segundos-Tierra después de que abandonáramos la fotosfera, nuestros alrededores ya tienen el aspecto cósmico corriente –cielo negro, estrellas y todo eso– aunque con una intensísima luz a nuestras espaldas y respetable calor. Hemos recorrido el primer millón de kilómetros.

Aprovechando que la temperatura está descendiendo muy rápidamente, vamos a relajarnos un poquito. Nos estamos dirigiendo hacia la órbita de Mercurio, que se encuentra más o menos a cincuenta y ocho millones de kilómetros del Sol. Cabalgando nuestro fotón a la velocidad de la luz, llegaremos en tres minutos-Tierra.

Esto del espacio interplanetario resulta sorprendente. No es espacio vacío, como mucha gente piensa, y menos tan cerca aún del Sol. Para encontrar algo que se parezca al espacio vacío verdadero –y aún así con muchos matices– habría que irse al espacio intergaláctico profundo, a lugares inconmensurablemente inhóspitos y misteriosos como el Supervacío de Eridanus; que, según cosmólogos como la física teórica Laura Mersini de la Universidad de Carolina del Norte, podría incluso ser la firma de otro universo dentro de este. Toma ya. Un garabatito de nada, quinientos millones de años-luz sin apenas materia o energía: como cinco mil veces nuestra galaxia entera.

Pero en los sistemas solares, el supuesto vacío interplanetario está lleno de cosas. Lo único que pasa es que su densidad es baja, no se reflejan en los sentidos humanos comunes y nos da la sensación de que no hay nada. A la velocidad a la que estamos viajando, podríamos sacar la mano y nuestro guante de cuero de unicornio translumínico recogería enseguida un montón de medio interplanetario: gas, polvo cósmico y un intenso viento solar compuesto por partículas cargadas que se extiende a lo largo de todo el sistema solar y mucho más allá. Esta corriente de partículas (en su mayor parte, protones de alta energía) constituyen una levísima atmósfera solar exterior de unos cuarenta mil millones de kilómetros de diámetro: la heliosfera. La presencia de todas estas cosas en el espacio supuestamente vacío ha permitido postular algunos proyectos especulativos para naves interplanetarias o interestelares futuras como el ramjet de Bussard (aunque presenta algunos problemas: en vez de propulsión, podría producirse un frenado); y también para velas solares ya existentes hoy en día del tipo de IKAROS.

Mercurio en falso color. Sonda MESSENGER, NASA/JPL.

Mercurio en falso color. Imagen tomada por la sonda MESSENGER. NASA/Jet Propulsion Laboratory.

Mercurio.

¡Mira, mira, Mercurio! Ahí está, el pobre, atrapado entre el fuego y el hielo y con la cara partida a golpe de meteoritos. Tan cerca del sol, la temperatura en su punto subsolar llega a 427 ºC por irradiación directa, mientras que en sus polos cae hasta –183 ºC. Sí, ciento ochenta y tres grados bajo cero, a sólo cincuenta y ocho millones de kilómetros del Sol (en realidad, tiene la órbita más excéntrica de todo el sistema solar: varía entre 46 y 70 millones de kilómetros). Es un planeta rocoso, de tipo terrestre, que no posee lunas.

Probablemente lo estudió por primera vez un desconocido astrónomo asirio, hace unos tres mil cien años; sus observaciones nos llegaron a través del MUL.APIN babilónico. ¿Cómo sabemos que fue hace ese tiempo, y no otro? Sencillo: para que las observaciones registradas en el MUL.APIN cuadren, Mercurio tenía que estar en su posición correspondiente al 1.130 aC, con un error máximo de ochenta años arriba o abajo. Es lo que tiene la astronomía: puedes saber dónde estuvo, está o estará cualquier cuerpo celeste con extrema precisión, incluso aunque la observación fuera tan primitiva. Para los griegos, era Apolo cuando se veía al amanecer y Hermes cuando aparecía al anochecer. Fueron los romanos quienes le pusieron su nombre moderno en la mayoría de idiomas, por el dios Mercurio, equivalente latino del Hermes de los helenos.

Mercurio es el planeta más pequeño del sistema solar, muy denso y con una atmósfera extremadamente tenue compuesta por oxígeno molecular, sodio, hidrógeno, helio y algunas otras cosas en poca cantidad. En el fondo de los cráteres polares, que nunca quedan expuestos al cercano Sol, parece haber una cierta cantidad de agua en forma de hielo según las observaciones radáricas. Posee un núcleo ferroso desproporcionadamente grande, fundido y denso, rodeado por un manto de silicatos y una corteza bastante gruesa. Se cree que el planeta está contrayéndose por enfriamiento de su núcleo. Tuvo actividad volcánica en el pasado.

Ninguna potencia espacial se ha planteado seriamente la exploración o colonización de Mercurio, que ocupa un lugar menor en la literatura. La tecnología necesaria sería muy parecida a la utilizada en la Luna; el geólogo especialista en Ciencias Planetarias Bruce C. Murray, que cofundara la Sociedad Planetaria junto a Carl Sagan y Louis Friedman, ha definido a este planeta como una Tierra vestida de Luna. Por desgracia, viajar hasta allí con los medios presentes de la Humanidad resulta francamente problemático: está tan metido en el pozo de potencial gravitatorio del Sol que –además de exigir un montón de delta-V– obligaría a permanecer seis años dando vueltas a su alrededor antes de poder aterrizar. Pero en él, podrían encontrarse cantidades significativas de helio-3 para las tecnologías de fusión nuclear y diversos minerales valiosos; además, se ha sugerido que debe ser un buen sitio para construir grandes velas solares, lo que a su vez sería útil en la terraformación de Venus. A donde, por cierto, estamos llegando ya: han pasado seis minutos desde que abandonamos la fotosfera solar, Mercurio ha quedado a nuestras espaldas y nos aproximamos al lucero del alba: Venus, Hesperus, Lucifer.

Venus en color real.

Venus en color real. NASA/Ricardo Nunes.

Venus.

¿Qué podemos decir de Venus que no hayamos dicho ya? Bueno, pues muchas cosas, la verdad. La hermana de la Tierra es otro planeta rocoso, como ya sabemos cubierto por una densa atmósfera muy rica en dióxido de carbono, lo que le hace mantener una temperatura superficial capaz de fundir el plomo; los estudios sobre la atmósfera venusiana, con la muy significativa participación de nuestro astrofísico favorito, fueron los primeros en hacernos entender que el incremento de dióxido de carbono de origen antropogénico representaban un peligro grave para el clima terrestre. Así comenzó a investigarse el calentamiento global.

Por su distancia al Sol, Venus debería ser un planeta tórrido pero perfectamente habitable. Sin embargo, esa catástrofe carbónica en su atmósfera lo convierte en un verdadero infierno al que sólo las naves Venera lograron vencer, en lo que fueron los primeros viajes interplanetarios de máquinas creadas por esta especie nuestra.

Las órbitas de los planetas son elípticas, pero la de Venus es circular casi por completo y se toma algo más de 224 días terrestres y medio para describir una vuelta completa alrededor del Sol. Además, su rotación resulta bastante extraña. Por un lado, es la más lenta entre los planetas grandes del sistema solar: un día venusiano equivale a 243 días terrestres, con lo que este día venusiano resulta más largo que el año venusiano. Por otro, gira sobre sí mismo en sentido contrario a la mayoría de planetas, incluída la Tierra. Se cree que estas anomalías obedecen a un complejo blocaje de marea con el Sol y a fenómenos relacionados con su densa atmósfera.

Pero como estamos viajando tan deprisa, Venus ya queda atrás y nos acercamos a la Tierra. Sí, es ese mundo azul de ahí delante. Me han dicho que hay en él algunas cosas curiosas. Llevamos ahora mismo unos ocho minutos de viaje.

Tierra en color real

Tierra en color real. Earth Observatory, NASA.

Tierra.

Tierra es un planeta rocoso, aunque la presencia de agua líquida, hielo y aire en su superficie le otorga ese aspecto peculiar como de canica azul. Si te fijas bien, sobre algunos puntos de sus continentes se distinguen zonas verduzcas. Eso es porque hay vida en ella, ¿te lo puedes creer? Vida terrestre vegetal, sustentada en la clorofila, lo que le otorga esa tonalidad. Algunas investigaciones aseguran que hay también animales, incluído uno que camina sobre dos patas y sabe encender luces en la oscuridad como si se creyera una especie de luciérnaga artificial. Qué bichejo más gracioso, ¿verdad? ¿Verlo desde aquí? No, por supuesto que a esta distancia resulta invisible. Además, no tiene mayor importancia, es un animalejo muy primitivo. Fíjate tú que se pasa la vida tirando líneas en el mapa a las que llama «fronteras» y luego las marca con orina, no, perdón, con trapos de colores, creo, ¡y hasta se mata por defenderlas! En un lugar tan pequeño, ¿no es cosa de risa? Nada, un bichejo irrelevante, ya te digo.

Tierra da una vuelta al Sol cada 365 días terrestres y un cuarto, aproximadamente. Quitando esas curiosidades de su superficie, es un planeta de lo más normalucho; sólo destaca por ser el más denso del sistema solar y por poseer una Luna bastante aburrida y muerta. Ah, sí, y porque tiene tectónica de placas: esos continentes que ves se mueven, muy lentamente, a lo largo de los eones.

Vamos directos a ella. Sujétate fuerte: existe un 25% de probabilidades de que choquemos con algún átomo o molécula durante nuestro recorrido hasta la superficie. En ese caso, contribuiríamos a formar parte del color del cielo terrestre mediante dos fenómenos llamados dispersión de Rayleigh y difusión de Mie. ¡Mira cómo se la pegan esos! Cuando la luz alcanza una molécula del aire, una parte de ella tiende a ser absorbida y después irradiada en una dirección distinta. La luz de onda corta (correspondiente a un color azulado, con aportación de verdes y violetas) resulta más absorbida e irradiada que la de onda larga (rojos, amarillos, naranjas). Es decir: la fría luz azul sufre mucha más dispersión de Rayleigh que la de los colores más cálidos. De hecho, le afecta tanto que se dispersa por toda la atmósfera y, mires adonde mires, te llega algo de ella. Este es el motivo de que el cielo sea normalmente azul.

Cuando miras hacia el horizonte, da la impresión de que el cielo tiene una tonalidad más pálida. Esto se debe a que la luz dispersada se dispersa y mezcla aún más, muchas veces, antes de alcanzar tus ojos (hay mucha más masa de aire si miras en horizontal que si miras hacia la vertical). Esta es también la razón de que parezca que el sol brilla menos cuando sale o cuando se pone. Y hace que los atardeceres y amaneceres tengan tonos rojizos: toda la luz de onda más corta resulta dispersada (azules, verdes) y sólo la de onda más larga (rojo, naranja) logra atravesar la atmósfera hasta tu retina. Este espectáculo de colores es el resultado de la dispersión de Rayleigh para los fotones de luz.

Puesta de sol desde la ISS

Puesta de sol a través de la atmósfera terrestre, tomada desde la Estación Espacial Internacional. Debido a una combinación curiosa de los fenómenos de dispersión y difusión mencionados en el texto, cada uno de los colores se corresponde a grandes rasgos con las distintas capas de la atmósfera (troposfera en amarillos y naranjas; estratosfera en blancos y grises; mesosfera, termosfera, ionosfera y exosfera en azules). La región negra inferior es la superficie terrestre y la superior, el espacio exterior. En esa estrecha franja de colores, que tratamos con tan enorme irresponsabilidad, alienta casi todo lo que amamos en este cosmos.

Sin embargo, si la luz se encuentra con partículas de mayor tamaño que los átomos y moléculas de la atmósfera (por ejemplo, las gotas de agua que forman las nubes), la dispersión de Rayleigh no puede producirse porque depende de la relación entre la amplitud de onda de la luz y el tamaño del objeto interpuesto. Cuando el tamaño de estas partículas alcanza un 10% aproximadamente de la longitud de onda de la luz incidente, el modelo de Rayleigh colapsa y deja paso a la difusión de Lorenz-Mie (no confundir con Lorentz). Siguiendo a Mie, la luz de todas las frecuencias (y no sólo la azul) resulta dispersada de manera muy parecida. Por tanto, no se produce una selección de un color específico (salvo debido a las propiedades físico-químicas de la materia donde esté incidiendo la luz). Y ese es el motivo de que las nubes sean blancas o grises.

En general, la luz de onda más larga (correspondiente a los colores cálidos) atraviesa la atmósfera y llega a la superficie sin muchos problemas. Como nosotros elegimos un fotón de onda larga, no hemos topado con nada, no hemos sufrido dispersión y por tanto estamos llegando ya al duro suelo. Ops, creo que vamos a dar contra esa mesa de ahí: esa a la que está sentado uno de esos bichejos de dos patas leyendo no sé qué en uno de sus ordenadores. Como hemos viajado a la velocidad de la luz (ejem…), hace 499 segundos que salimos del Sol, hemos recorrido unos ciento cincuenta millones de kilómetros y ahora vamos a…

Ojo.

…¡chocar! En realidad, lo que ocurre es que hemos caído dentro del radio de influencia de uno de los átomos que componen la mesa. Ahora pueden ocurrir dos cosas: que seamos absorbidos o que seamos rebotados. Los átomos que componen la mesa, por su naturaleza químico-física, tienden a absorber la luz en determinadas frecuencias y a reflejarla en otras. La luz reflejada puede entonces alcanzar los ojos e instrumentos que se encuentren alrededor, excitándolos; por lo que tales ojos e instrumentos (como el sensor de una cámara) verán la mesa (o cualquier otro objeto) gracias a la luz que ésta ha rechazado (reflejado). Es decir: vemos las cosas por la luz reflejada en las frecuencias (colores) que sus átomos no quieren y por tanto expulsan. Por esto decimos que las cosas son de todos los colores menos del color que las vemos.

Como viajábamos sobre un fotón de onda larga y luz cálida (rojos, naranjas, amarillos), y al menos algún elemento de la mesa tiene esa tonalidad, sus átomos nos han rechazado y hemos salido rebotados en dirección a… ¡bueno, pues parece que hacia el ojo del bichejo! Como le dé por parpadear ahora mismo, igual salimos reflejados otra vez (hacia cualquier otro lugar como, por ejemplo, una cámara que le estuviera haciendo una foto de la cara: entonces, contribuiríamos a formar la imagen del párpado cerrado).

Ojo humano

Ojo humano (sección)

Al penetrar en su córnea –la envoltura transparente delantera del ojo, compuesta por tres capas y dos membranas que las separan– vamos a sufrir un fenómeno llamado refracción. Es decir, un cambio brusco de dirección; tanto que la imagen se va a invertir por completo. Debido a la forma del ojo, la córnea actúa como una lente y concentra la mayor parte de los fotones de luz incidente hacia un punto en el interior; costó muchos cientos de millones de años de evolución biológica e incontables callejones sin salida llegar a algo así. Por fortuna, como hay tantos ojos en la naturaleza y han ido apareciendo a lo largo de tanto tiempo, la evolución del ojo es una de las mejor conocidas. Y sin embargo, el ojo humano tiene varias imperfecciones, una de ellas traducida en un punto ciego, que las sepias por ejemplo no sufren. En realidad, nuestro ojo dista de ser perfecto en comparación con el de otros animales.

Aún cabalgando nuestro fotón absorbido-reemitido por la mesa, atravesamos la cámara anterior –llena de humor acuoso– y pasamos por la pupila: la apertura circular en el centro del iris, esa membrana que cada persona tiene de un color distinto. El iris es básicamente un esfínter fotosensible, que se contrae o distiende según la cantidad de fotones incidentes para ajustar la iluminación total en el interior del ojo. Cuando hay poca luz se abre, permitiendo que entre toda la posible; y cuando hay mucha se cierra, evitando el deslumbramiento hasta cierto límite. Cruzamos así las puertas del iris y nos adentramos en el cristalino.

El cristalino es una lente autoajustable bajo el control del sistema nervioso que permite enfocar objetos a distintas distancias, fenómeno conocido como acomodación; esto provoca una segunda refracción (cambio de dirección de los fotones) que ajusta con más finura la causada por la córnea. Así, atravesamos ya el gel transparente que rellena la esfera del ojo –llamado humor vítreo– y nos precipitamos hacia el fondo de la retina.

Este es ya un tejido nervioso complejo, conectado directamente al cerebro mediante el nervio óptico, hasta tal punto que casi casi se podría denominar una proyección especializada del cerebro dentro del ojo. La retina está compuesta por grandes cantidades de neuronas interconectadas mediante sinapsis. Entre estas neuronas se encuentran unas muy especializadas en captar la luz. Son las células fotorreceptoras, típicamente conos y bastones.

La disposición de estas células y de las otras neuronas que las conectan al nervio óptico conduce a otro divertido debate con los partidarios del diseño inteligente (creacionismo bajo tapadera pseudocientífica). Resulta que en el ojo humano las células conectoras están dispuestas por delante de las células fotorreceptoras, con lo que muchos fotones quedan absorbidos en ellas sin efecto alguno, obstruyendo el paso de la luz y reduciendo así la agudeza visual; evidentemente, cabe preguntarse qué clase de diseñador hace pasar el cableado de una cámara por delante del sensor CCD. De nuevo, son las sepias quienes tienen dispuestas las células de la retina a la manera lógica; quizá ellas sean el pueblo elegido.

La retina según Santiago Ramón y Cajal

Estructura de la retina según la dibujó D. Santiago Ramón y Cajal (ca. 1900). En el Instituto Cajal del CSIC, Madrid.

Aquí acaba el recorrido de nuestro fotón, bien atrapado estúpidamente en una de estas células interconectoras o bien logrando actuar un fotorreceptor, tras su viaje de ocho minutos y diecinueve segundos desde el Sol. Si logra superar ese fallo de diseño de la retina, excitará uno de estos conos o bastones. Los bastones son extremadamente sensibles, capaces de detectar un solo fotón, permitiendo así la visión en condiciones de baja visibilidad (visión escotópica); a cambio, no pueden detectar colores. Son monocromáticos, con una sensibilidad óptima en torno a las frecuencias verdeazuladas. Por eso, cuando la iluminación desciende, seguimos siendo capaces de ver sombras pero perdemos la mayor parte de la visión en color.

Los conos, por el contrario, necesitan mucha más energía lumínica para excitarse. Sin embargo, en el ojo humano están presentes en tres sabores, cada uno de ellos más sensible a las frecuencias correspondientes a un color: verde, roja y azul. Así, nos proporcionan la visión fotópica tricromática: lo que llamamos ver en colores. La mayor parte de los mamíferos sólo son capaces de ver en dos colores, o carecen por completo de la capacidad para ver en color. Sin embargo, la mayor parte de las aves y algunos peces y anfibios poseen visión tetracromática: pueden ver un cuarto color, invisible para nosotros. ¿Y cuál es ese cuarto color? Pues a menudo la luz ultravioleta, que se difunde en una frecuencia indetectable por los fotorreceptores humanos (aunque no por sus instrumentos, claro). Parece ser que ciertas hembras humanas podrían tener una tenue visión tetracromática, pero esto no está demostrado todavía.

Algunas mariposas, lampreas y aves como las palomas son pentácromas. Esto es: poseen conos especializados en distinguir cinco colores básicos (e incluso más). Como resultado, pueden ver unos cien mil millones de colores distintos, mucho más allá de lo que constituye luz visible para la gente humana. Esa es una experiencia inimaginable. Aunque nosotros –por supuesto– seamos capaces de observar en todas esas frecuencias y muchas más a través de nuestros aparatos, la experiencia de ver realmente un mundo tan multicolor nos está vedada por completo: es como tratar de imaginarse la cuarta dimensión. No existen tales fotorreceptores en nuestros ojos y nuestro cerebro no ha podido evolucionar con ellos, por lo que estaríamos de todos modos incapacitados para interpretar sus señales. Dependemos de los datos instrumentales y las imágenes sintéticas en falso color para acceder a esa parte de la realidad; cualquier paloma la ve con un simple vistazo.

Los fotones incidentes excitan estas células fotorreceptoras estimulando algunas moléculas que se encuentran en su interior: la rodopsina y las yodopsinas, un conjunto de proteínas sensibles a la luz denominadas opsinas. Aquí se da otro fenómeno curioso. Todas estas células están activadas constantemente. Cuando resultan excitadas por la luz, entonces se inhiben y dejan de transmitir señales electroquímicas. Es esta desconexión la que activa las células transmisoras (las que están por delante) y entonces se emite una señal visual hacia el cerebro por el nervio óptico. Esto es, funciona al revés de como uno se podría imaginar en un principio: los fotorreceptores quedan inhibidos y eso es lo que dispara la señal visual hacia el cerebro en los transmisores.

O sea, que esto ya se asemeja a uno de esos bromazos a los que Mamá Naturaleza es tan aficionada: vemos las cosas de todos los colores menos de los colores que son (que admiten); las vemos boca abajo debido a la refracción en sus lentes (es nuestro cerebro quien se encarga de ponerlas boca arriba otra vez); y además las vemos porque detienen (en vez de activar) la acción de las células fotorreceptoras, lo que a su vez activa (en vez de detener) al sistema neurotransmisor. El mundo al revés, vaya. Para acabar de arreglarlo, aproximadamente la mitad de las fibras de cada nervio óptico se cruzan en el quiasma óptico y van a parar al lado opuesto del cerebro. Así las señales que viajan por ellas llegan finalmente a la corteza visual, que se encuentra (¡cómo no!) en la parte posterior de la cabeza, encima de la nuca. Es en esta corteza donde se construye el mapa de toda la información captada a través de los ojos, constituyendo así –literalmente– nuestra visión del mundo y contribuyendo decisivamente a formar nuestros pensamientos y emociones.

Y la energía que mueve todo esto procede también del Sol. Además de la radiación solar directa que mantiene viva la biosfera terrestre, los animales somos parásitos de las plantas a través de la cadena alimentaria; plantas que dependen a su vez de la fotosíntesis (propulsada por energía solar). Hijos e hijas del Sol y de la lluvia, polvo de estrellas, desde siempre y para siempre jamás.

Escrito sobre una idea original de Orlando Sánchez Maroto al que, por tanto, dedico este post. ¡Gracias, Orlando!

Premio Experientia Docet a la divulgación científica

Premio Experientia Docet a la excelencia en la divulgación científica.

Este post ha recibido el premio Experientia Docet a la excelencia en la divulgación científica.
Con mi agradecimiento. :-)

74 Comentarios Trackbacks / Pingbacks (18)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (95 votos, media: 4,93 de 5)
Loading...
Be Sociable, Share!

Fuego

Una de las más viejas herramientas tecnológicas de la Humanidad
es también un interesantísimo y espectacular fenómeno químico
que nos introduce en las leyes de la termodinámica,
la física cuántica y la naturaleza de la entropía y el tiempo.

Llama de una vela

En una vela, la mecha entra en combustión con el oxígeno del aire para formar la llama.

Todos lo conocemos, casi todos nos hemos quedado hipnotizados viéndolo arder alguna vez. Desde la humilde cerilla o el hogar que da nombre a nuestras guaridas hasta las erupciones volcánicas, las tormentas ígneas de los grandes desastres naturales o humanos y las inmensas llamaradas del Sol, monumentales como muchos planetas Tierra, el fuego está ahí desde que hubo un ahí. Hasta cierto punto, se puede decir que este universo surgió con una gran ignición. ¿Qué es el fuego? ¿Por qué calienta e ilumina? Y, ¿de qué modos distintos llegó a sernos tan útil en nuestra evolución final?

De la naturaleza del fuego.

En realidad, las llamaradas solares o el Big Bang no son fuego en sentido estricto, sino fenómenos físicos de naturaleza distinta que sólo coinciden con él en que son capaces de emitir luz y calor. Hoy vamos a centrarnos en lo que los humanos hemos conocido como fuego desde tiempo inmemorial: esa cosa fantasmal que arde ante nuestros ojos con llamas bailarinas y nos calienta, nos ilumina y nos quema.

En principio, el fuego es un fenómeno químico bastante sencillo: rigurosamente hablando, consiste en la oxidación rápida y exotérmica de la materia mediante el proceso denominado combustión, aunque no haya llama ni humo ni ninguna de sus otras características más visibles. Vamos a ver lo que significa esto.

Una parte significativa de los átomos y moléculas que componen la realidad material que conocemos pueden combinarse con el oxígeno del aire, del agua o de cualquier otro lugar para producir óxidos. Aquí tenemos que quitarnos una idea preconcebida de la cabeza: la herrumbre u orín que vemos en los metales oxidados no es el óxido, sino sólo un tipo de óxido. Hay muchísimos más, que no tienen ese aspecto ni parecido. El agua, por ejemplo, es un óxido. H2O, ¿recuerdas? Dos átomos de hidrógeno primordial combinados con uno de oxígeno estelar. De hecho, se puede llamar sistemáticamente al agua monóxido de dihidrógeno (y también ácido hidroxílico y de otras maneras), lo que ha dado lugar a una deliciosa broma pedagógica que aprovecha el temor de mucha gente a todo lo que suene a química. Nuestro propio organismo está lleno de óxidos muy distintos desempeñando un montón de funciones biológicas, como por ejemplo en la respiración de cada una de nuestras células.

Agua

El universo está lleno de óxidos producidos como resultado de combustiones; por ejemplo, el agua, una combinación de hidrógeno y oxígeno.

En realidad, la oxidación puede darse con cosas que no son oxígeno; pero la que se da con oxígeno es muy común y la primera que se descubrió, hasta el punto de darle nombre a todo el fenómeno. Hay óxidos naturales y artificiales por todas partes, pues se trata de una de las reacciones más corrientes de la química que nos formó y nos mantiene aquí.

Cuando esta reacción de oxidación produce energía en forma de calor, siguiendo las leyes de la termodinámica química, decimos que es exotérmica y la llamamos combustión. La combustión puede ser muy lenta o muy rápida, y en ella siempre hay una sustancia que actúa de combustible y otra que actúa de oxidante o comburente. Como vivimos en la corteza de un mundo donde el oxígeno está bastante presente hoy en día, este oxígeno resulta ser el comburente más común a nuestro alrededor.

El combustible puede ser cualquier materia capaz de combinarse con el oxidante o comburente emitiendo calor en el proceso. Algunos de los combustibles más eficaces que existen se basan en el carbono, también muy abundante en la Tierra. De manera muy significativa, está presente en todo lo que vive (la vida en la Tierra está sustentada completamente en el carbono) o estuvo vivo alguna vez, desde la leña hasta el carbón o el petróleo y el gas natural. No en vano estas últimas sustancias se denominan hidrocarburos; es decir, compuestos de carbono e hidrógeno, que oxidan –se queman– muy bien con el oxígeno.

Nuestro propio cuerpo, muy rico en compuestos del carbono, sería un buen combustible si no fuera porque el 45-75% de agua que contiene tiende a detener la combustión (apagarla). El agua tiende a detener la combustión porque ya está quemada (oxidada); por tanto, no puede arder y además se mete por medio, bloquea y enfría la oxidación del resto de las sustancias que impregna. Este es el motivo de que, mal que les pese a muchos, el motor de agua no pueda ser.

El proceso de la combustión produce una o varias sustancias que incorporan los componentes del combustible y el comburente, aunque reorganizados de una manera distinta. Estas sustancias pueden ser de muchos tipos, pero las más conocidas son el sólido que llamamos ceniza (aunque, por ejemplo, podríamos considerar también al agua como una ceniza fría de hidrógeno y oxígeno) y una serie de componentes gaseosos que escapan en forma de llama y humo (el humo también suele arrastrar una parte de las cenizas más volátiles). La llama y el humo pueden ser visibles o invisibles por completo al ojo desnudo, según las propiedades de cada combustión en particular. Estas sustancias, si han ardido por completo, ya no pueden volverse a usar como combustible o comburente porque han completado la reacción y no les queda energía química para ceder.

En el corazón de la llama.

Como dije más arriba, la combustión puede ser muy lenta o muy rápida. Cuando es muy rápida, puede llegar a convertirse en una deflagración; y si es tan veloz que genera una onda de choque supersónica, entonces hablamos de detonación o explosión (aunque no todas las explosiones son el resultado de este tipo de reacción). Por ejemplo, la combustión muy rápida de un hidrocarburo del tipo de la gasolina con el oxígeno del aire en un motor de combustión interna –como en un coche o una moto– provoca una deflagración que mueve el pistón y con él al resto del motor.

Funcionamiento de un motor de combustión interna.
La ignición de una mezcla de hidrocarburos y oxígeno atmosférico
aporta la energía necesaria para moverlo.

Cuando la combustión es moderadamente rápida pero no tanto, entonces nos encontramos con el fuego que conocemos como tal. Y su parte más llamativa y fascinante es, naturalmente, la llama. La llama está compuesta por los gases calientes y las cenizas más volátiles que son resultado de la combustión y se alejan de la misma siguiendo principios físicos corrientes como la convección y las leyes que gobiernan el comportamiento de los gases.

Incandescencia

Los objetos muy calientes –como este hierro al rojo vivo o el filamento de la bombilla– emiten luz por incandescencia, un fenómeno cuántico.

Pero, ¿por qué brilla y calienta? Si no quisiéramos profundizar, podríamos decir simplemente que los objetos calientes emiten energía en forma de calor y luz, punto. Lo llamamos calor e incandescencia, y la mayoría de la gente se conforma con eso, pero nosotros no. ¿De qué forma una reacción química como la combustión puede producir luz y calor?

Cuando un cuerpo –sólido, líquido, gaseoso, lo que sea– aumenta su temperatura, es porque los átomos y moléculas que lo forman se han excitado. Un átomo desexcitado por completo estaría en estado fundamental y se hallaría a la mínima temperatura posible: aproximadamente 273,15ºC bajo cero, lo que llamamos el cero absoluto. Por eso esta es la temperatura más baja posible en nuestro universo: nada puede estar más inmóvil que quieto por completo, ni tener menos energía que ninguna energía en absoluto.

Sin embargo, el cosmos está lleno de energía capaz de provocar excitación y no hay nada en él que esté o pueda llegar al cero absoluto teórico: lo impide la Tercera Ley de la Termodinámica. Hasta el espacio profundo, vacío casi por completo, viene a estar a unos 270 grados bajo cero. Esos tres grados de diferencia (2’725 para ser exactos) se los aporta la radiación del fondo cósmico, que es resultado del Big Bang que nos fundó y omnipresente a este lado de la realidad. En los laboratorios humanos, con técnicas muy sofisticadas, se ha logrado alcanzar la friolera –literalmente– de cien billonésimas de grado por encima del cero absoluto. Y sin embargo, no es el cero absoluto. Todo lo que existe en este universo está en algún grado de excitación, aunque sea ínfimo.

En el momento en que algo está excitado, por poco que sea, decimos que se encuentra a una determinada temperatura; y además, puede transferir una parte de esa energía que lo mantiene excitado a otros cuerpos. Esta transferencia es lo que llamamos calor, y constituye uno de los mecanismos más esenciales mediante los que funciona la realidad. Sin calor, no habría entropía y este universo permanecería eternamente congelado en un absurdo estado inicial sin posibilidad alguna de variar hacia ningún otro estado; y, por tanto, desprovisto también de tiempo. Estaríamos ante un universo fallido. Por eso la Termodinámica es tan importante. Pero, ¿cómo pasa el calor a estos otros cuerpos, como por ejemplo nuestra piel, para que podamos sentir el calorcito de la hoguera (o el calor del Sol a través del vacío cósmico, de tal modo que la vida pueda existir)? ¡Ah! Aquí ya tenemos que profundizar un poquito más y adentrarnos en los valles extraños de la mecánica cuántica.

Calor cuántico.

Imagen infrarroja de una serpiente en torno a un brazo humano

Imagen infrarroja de una serpiente enrollada en torno a un brazo humano. Al ser un animal de sangre fría, la serpiente emite menos radiación térmica que un animal de sangre caliente como el humano. La radiación térmica es una forma de radiación electromagnética (fotónica), producida por los electrones saltando entre los distintos estados de excitación de los átomos que componen los cuerpos.

Una de las proposiciones más esenciales de la física cuántica dice que, en la escala de lo muy pequeño, la realidad no funciona de manera suave y continua sino abruptamente, a saltos entre distintos estados. Esto es: las cosas no ocurren de manera lineal, sino de cuanto en cuanto. Sí, exactamente por ese motivo se llama física cuántica; imaginativa que es la gente.

Entre otras cosas, los átomos que componen la materia están formados por dos partículas cargadas: el protón, con carga positiva, y el electrón, con carga negativa (más el neutrón, que no viene a cuento ahora). Estas partículas son lo bastante pequeñas para comportarse de manera cuántica. Particularmente, el electrón sólo puede existir en unos determinados orbitales alrededor del núcleo atómico (donde están los protones y neutrones). Es decir: o está en uno o está en otro, pero no está en el medio, ni pasa por el medio, ni nada parecido. Sí, ya, no es nada intuitivo eso de que algo pueda ir del punto A al punto B sin pasar por el camino intermedio (aunque, para empezar, el electrón existe como una nube de probabilidad con incertidumbre cuántica, o sea que ya te puedes hacer una idea de cómo va esto…).

Cuando un átomo es excitado (se calienta), sus electrones comienzan a saltar de cuanto en cuanto hacia orbitales cada vez más exteriores; si se excita mucho, terminarán por perderse y diremos que está ionizado. Cuando empieza a enfriarse, estos electrones –si no han escapado– retornan hacia los orbitales inferiores. Y aquí está el secreto: cada vez que un electrón salta a un orbital exterior lo hace porque absorbe un fotón, y cada vez que vuelve a uno inferior emite un fotón. Es decir: cuando algo se calienta absorbe fotones (de la radiación térmica circundante), pero en el momento en que empieza a enfriarse los emite hacia el exterior.

Habiendo fotones de por medio, estamos ante radiación electromagnética. El calor, la interacción más esencial de este universo, la que permite la entropía y el tiempo, se vehicula mediante esta forma de radiación electromagnética que llamamos radiación térmica, compuesta por estos fotones. Cuando un átomo recibe y absorbe fotones, sus electrones marchan a orbitales exteriores salto fotónico a salto fotónico: así es como se excita, se calienta. Y en cuanto comienza a enfriarse, de vuelta hacia un estado más fundamental, sus electrones (si no se han perdido) regresan también salto fotónico a salto fotónico, emitiendo uno cada vez. Por tanto, cuando un átomo recibe radiación térmica absorbe fotones y se calienta; y cuando se enfría, los vuelve a emitir, lo que calentará a su vez a otros átomos situados a su alrededor. Este fenómeno es uno de los campos de estudio fundamentales de la electrodinámica cuántica.

Por eso el fuego calienta. Por eso el Sol calienta. Por eso el universo está caliente y tiene entropía y tiempo. Por eso, también, tu cuerpo está caliente y es capaz de calentar. Lo hacen estos humildes, minúsculos fotones saltando de átomo en átomo cada vez que un electrón cambia de orbital. Desde el inicio del tiempo y para siempre jamás.

De la luz multicolor y la física cuántica.

Llama en gravedad cero

En gravedad cero, la convección no aleja de la mecha los productos incandescentes que producen la luz, lo que resulta en una llama esférica.

Este fenómeno de la electrodinámica cuántica explica por qué el calor se transfiere de unos cuerpos a otros: es obra de la radiación electromagnética térmica, a una frecuencia situada generalmente en el rango de los infrarrojos. Por eso, las cámaras que pueden ver en el infrarrojo detectan los cuerpos calientes.

¿Y la luz? Bueno, en apariencia la respuesta debería ser fácil: la luz no es más que esta misma radiación electromagnética a mayor frecuencia. Diríamos –y creíamos antiguamente– que, conforme aumenta la temperatura, los electrones brincan cada vez más rápido, los fotones se emiten a frecuencia mayor y la emisión térmica va desplazándose hacia el rango de la luz visible e incluso el ultravioleta –que son también radiación electromagnética, sólo que a una frecuencia superior–. Así, se pasaría de proyectar calor a emitir asimismo luz y…

…y tenemos un problema. No te supondrás que iba a ser tan sencillo, ¿no? :D

En apariencia debería ser así. Pero ya hemos visto que esto de la cuántica se comporta de maneras extrañas. Cuando un objeto sólido se calienta lo bastante, en efecto, la frecuencia de la radiación electromagnética que emite aumenta y pasa del infrarrojo a las regiones inferiores de la luz visible de color rojo: decimos que está al rojo vivo. Si se calienta aún más, la frecuencia sigue subiendo y va pasando a proyectar luz amarilla, después blanca (cuando decimos que está al blanco) y finalmente azul. Esto estaba ya estudiado a finales del siglo XIX: la Ley de Desplazamiento de Wien definía la frecuencia a la que la radiación es mayor para cada temperatura determinada y la potencia total emitida quedaba determinada por la Ley de Stefan-Boltzmann. Todo controlado, ¿eh?

Va a ser que no. Porque si la temperatura sigue aumentando, lógicamente la frecuencia tendría que seguir aumentando hacia el ultravioleta. Y en ese momento debería volverse invisible, puesto que el ojo humano no puede ver la radiación ultravioleta. Sin embargo, esto no ocurre: por muy caliente que esté un cuerpo, sigue siendo visible con su brillo blanquiazul hasta que se consume por completo, si es que se consume. ¡Oops! Parece que tenemos un problema aquí.

A principios del siglo XX, se intentó resolver este problema mediante la Ley de Rayleigh-Jeans. Y funcionaba bien, pero sólo hasta cierto punto, pues lamentablemente predecía que un cuerpo que estuviera en condiciones de equilibrio térmico con el ambiente circundante emitiría… energía infinita. Ajá, infinita. Como a todas luces esto no sucede en la realidad, sino más bien todo lo contrario (la luminosidad y por tanto la energía emitida por los objetos calientes comienza a reducirse a partir de cierta temperatura, mientras que el color se queda estancado en el azul), significa que toda nuestra comprensión de cómo funciona el mundo estaba mal de alguna manera muy retorcida: estábamos ante una violación mayor de las leyes físicas conocidas en su tiempo, la llamada catástrofe ultravioleta.

No te lo vas a creer: hubo que descubrir un nuevo ámbito de comprensión de la realidad para darle explicación. Este es ni más ni menos el origen de la física cuántica, o casi.

Catástrofe ultravioleta

La "catástrofe ultravioleta". Según la ley clásica de Rayleigh-Jeans, un cuerpo negro ideal debería emitir cada vez más luz conforme aumenta la frecuencia (o disminuye la longitud de onda) debido al incremento de temperatura, hasta un punto en el que estaría irradiando energía infinita. Como esto evidentemente no sucede en la realidad, hizo falta la ley cuántica de Planck para explicarlo.

Fue el supuestamente poco cuántico Einstein quien propuso aplicar la Ley de Planck, primera de la mecánica cuántica, para resolver este rompecabezas cósmico por fin. Y funcionó. Si la energía térmica emitida no lo hace de manera continua, sino en paquetes discretos –los condenados cuantos– con una energía proporcional a la frecuencia, entonces todo vuelve a tener sentido. Pues en el modelo clásico, esta energía quedaba distribuida uniformemente a lo largo de todo el rango de emisión y terminaba acumulándose hasta el infinito; mientras que en el modelo cuántico sólo lo hace en unos modos específicos, correspondientes a estos estados cuánticos discretos.

Dicho de otra manera: la energía electromagnética no sigue la descripción lineal clásica, sino que sólo puede oscilar o emitirse en paquetes discretos (cuantos) de energía proporcional a la frecuencia. Como resultado, el número de modos posibles para una energía determinada en oscilación a alta frecuencia se reduce, y con ella la energía promedio a tales frecuencias. Finalmente, la potencia radiada cae a cero y la potencia total emitida es finita (no infinita, como predecía la física clásica y obviamente no podía ser). Así, la Ley cuántica de Planck describe lo que sucede exactamente en la realidad.

Estos paquetes o cuantos de energía radiada se llaman fotones. Y así fue como comenzamos a comprender profundamente no sólo la luz y el calor, sino también la entropía y el tiempo que rigen nuestra existencia y evolución.

Fuego sobre la Tierra.

Los primeros indicios fósiles del fuego que conocemos en el planeta Tierra surgen con la aparición de las plantas terrestres, fuera del mar, hace unos cuatrocientos setenta millones de años. Antes de eso, no había muchas cosas que pudieran arder fuera del agua; y dentro del agua, las cosas arden fatal. Pero, sobre todo, la presencia de estas plantas aéreas incrementaron enormemente la presencia de oxígeno en la atmósfera. Cuando el oxígeno libre en el aire pasó del 13%, empezaron a producirse los primeros incendios forestales por las causas naturales corrientes, consumiendo parte de esta flora que había salido del mar. Dada su poca densidad y altura, no se piensa que estos incendios fueran muy espectaculares. Sin embargo, su combustión lenta comenzó a producir carbón vegetal; y este carbón vegetal nos informa de la presencia del fuego antiguo sobre la faz de nuestro planeta desde por lo menos el Silúrico.

No fue hasta la aparición de los grandes bosques, en el Devónico, cuando comenzaron a ocasionarse importantes incendios forestales. Sin embargo, hay que esperar hasta el Carbonífero –con mucha biomasa terrestre y mucho oxígeno aéreo– para ver fuegos a gran escala capaces de formar relevantes yacimientos de carbón (y hasta el 20% del carbón formado por este procedimiento es carbón vegetal fosilizado, lleno de evidencias y pistas sobre la larga evolución de la vida en el planeta Tierra).

Incendio forestal visto desde la estación espacial

Un incendio forestal en Utah, Estados Unidos, visto desde la Estación Espacial Internacional. Observatorio de la Tierra, NASA.

Hacia finales del Pérmico, durante el Gran Morir, los niveles de oxígeno atmosférico cayeron acusadamente y con ellos el número e intensidad de los fuegos; a principios del Triásico parece haber una significativa carencia de producción de carbones en la Tierra, lo que nos invita a pensar en una biomasa muy reducida tras la gran extinción. El fuego vuelve a hacer aparición con fuerza entre el Jurásico y el Cretácico. No obstante, la imaginería popular sobre un infierno global durante la extinción que se cargó a los dinosaurios es infundada: no hay indicios de que los incendios fueran más fuertes o extensos en este periodo que en los inmediatamente anteriores o posteriores.

Los custodios del fuego.

El fuego, por tanto, era un fenómeno generalizado y corriente cuando los primeros humanos aparecimos por aquí. Y desde el principio, estuvo vinculado a nuestra historia, con hondos significados simbólicos, religiosos, filosóficos y –por supuesto– de orden práctico.

Existen indicios de la presencia del fuego en las comunidades humanas, y quizás un cierto dominio del mismo, desde hace aproximadamente un millón y medio de años. En el yacimiento de Chesowanja (Kenia), poblado por homo erectus, se han encontrado restos de una especie de cerámica primitiva cocida a una temperatura de entre doscientos y cuatrocientos grados; no obstante, se trata de pruebas inconcluyentes. Por el contrario, no cabe la menor duda sobre su uso generalizado a partir del rango de los 200.000-400.000 años, y de hecho es uno de los elementos fundamentales para distinguir entre las culturas del Paleolítico Inferior y las del Paleolítico Medio.

El control del fuego aportó cambios significativos al comportamiento humano. Su calor y su luz nos permitió adentrarnos en lugares más fríos y en el corazón de la noche, ayudó a espantar animales peligrosos o molestos y mejoró nuestra nutrición mediante la ingesta de proteínas cocinadas. Richard Wrangham, de la Universidad de Harvard, piensa que el cocinado de determinados tubérculos permitió la evolución de dientes más pequeños y cerebros más grandes, junto a un aporte de energía adicional que nos dio alas para salir a cazar más a menudo.

En realidad, son incontables las cosas que el dominio del fuego hizo por nosotros, empujándonos constantemente hacia adelante por la senda de la humanidad y la civilización. El fuego es, seguramente, la tecnología estrella de la especie humana. Sin él, nunca habríamos desarrollado la cerámica, la metalurgia o cualquier otra tecnología capaz de sacarnos del Paleolítico, por no mencionar la electricidad, el motor de combustión interna, el vuelo aeroespacial o… la física cuántica, por ejemplo. También ha sido, con frecuencia, un destructor de civilización por vías accidentales o violentas; y hasta de esa destrucción surgieron más cosas nuevas. El fuego viaja con nosotros desde que empezamos a ser lo que somos; y seguirá acompañándonos en nuestro camino, bajo cualquiera de sus formas, por siempre jamás.

53 Comentarios Trackbacks / Pingbacks (10)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (82 votos, media: 4,78 de 5)
Loading...
Be Sociable, Share!

« Página anterior« Entradas anteriores « Página anterior · Página siguiente » Entradas siguientes »Página siguiente »