domingo, 30 de mayo de 2010

Cinco preguntas a BP.

Cinco semanas y cinco fracasos son paciencia y prudencia suficientes.

En vista de que quienes deberían hacerlas mantienen un curioso silencio, yo creo que ya es hora de que empecemos todos a hacer preguntas en tanto que ciudadanos de este mundo (y consumidores). En el momento presente, estas son las mías, que ya han sido remitidas a BP España a través de su página web:







Watch live streaming video from wkrg_oil_spill at livestream.com

Feed en tiempo real del escape de petróleo a gran profundidad ocasionado por BP en el Golfo de México. Es una webcam y puede que a veces se detenga o no se vea.

Estimado señor o señora:

En primer lugar, permítale transmitirle mi más sentido pésame por el fallecimiento de los once trabajadores a bordo de la plataforma Deepwater Horizon, hundida en el Golfo de México el pasado 20 de abril de 2010; pésame que le rogaría hiciera llegar a sus familias si tal cosa es posible. Entiendo que este es, además de un desastre ecológico, una tragedia humana que sin duda les habrá afectado hondamente como compañeros que son de estas personas.

Transcurridas cinco semanas desde el inicio de esta catástrofe, y ante el fracaso de las diversas medidas tomadas para contenerla, comprenderá que somos muchos los ciudadanos preocupados e inquietos por la evolución de la misma. Me temo que, en vista de lo que está sucediendo, las explicaciones dadas a la sociedad y a los consumidores hasta ahora por su compañía resultan lamentablemente insuficientes. Es por ello que me dirijo a ustedes para realizarles las siguientes preguntas, comunicándole que he publicado copia de las mismas en mi blog y pretendo hacer lo propio con las respuestas o su ausencia:

1. ¿Por qué BP y sus asociados iniciaron la explotación de pozos de gran profundidad sin disponer de ninguna tecnología razonablemente comprobada de contención en caso de accidente?

Ha quedado palmariamente demostrado que BP –y con toda probabilidad la industria petrolífera en general– carece de tecnologías para contener un accidente por blowout a gran profundidad, cuya posibilidad era cierta y conocida. Toda actividad humana tiene sus riesgos; sin embargo, los preceptos más básicos de la cultura de la seguridad determinan que no se emprende una actividad industrial a gran escala sin un plan de contingencia al menos razonablemente conocido y comprobado para el peor caso posible. Aparentemente, BP y sus asociados iniciaron una serie de explotaciones petrolíferas submarinas para las que no existía ni existe ninguna tecnología de contención de esta clase de siniestros en un plazo y con una fiabilidad prudenciales. ¿Por qué asumieron semejante riesgo? Habiendo asumido el riesgo, ¿se responsabilizan ustedes de todas sus consecuencias?

2. ¿Qué otras instalaciones del tipo de la Deepwater Horizon existen en el mundo y dónde se encuentran ubicadas?

Habiendo quedado demostrado de la peor manera posible que no existen tecnologías practicables para la contención de este tipo de accidentes en tiempo y forma sensatos, deduzco que la existencia de estas instalaciones implica un riesgo grave e incontrolable para el medio ambiente y las comunidades humanas circundantes. Resulta, por tanto, asunto de interés público conocer qué otras plataformas de perforación susceptibles de sufrir un accidente análogo existen en el mundo, y cuál es su ubicación precisa; tanto si pertenecen a BP como a cualquier otra compañía o estado.

3. ¿Qué medidas han tomado o van a tomar BP en particular y la industria petrolífera en general para prevenir la repetición de un accidente de estas características?

Dado que los accidentes por blowout han demostrado ser una constante en la historia de la explotación petrolífera, a pesar de todos los esfuerzos destinados a prevenirlos, resulta obvio por sí mismo que la perforación en lugares difícilmente accesibles y con grave riesgo medioambiental representa una actividad irresponsable e inadmisible. ¿Qué medidas eficaces se han tomado o se van a tomar para evitar su repetición? Estas medidas, ¿pueden impedir realmente que vuelva a suceder un accidente así, pese al fracaso de todas las anteriores? ¿De qué manera? En caso contrario, parecería razonable clausurar de inmediato todas estas instalaciones. Entiendo que esta opción puede causar graves perjuicios económicos a sus operadores, ¿pero existe alguna otra alternativa realista en el estado actual de la tecnología? Si existe, ¿por qué no se implementó en la Deepwater Horizon?

4. ¿Qué medidas han tomado o van a tomar BP y sus asociados para reponer el daño causado al medio ambiente y para indemnizar a las comunidades humanas afectadas por el mismo en el Golfo de México o en cualquier otro lugar?

Resulta evidente que el accidente de la Deepwater Horizon ha causado un daño inmenso al medio ambiente y a las comunidades humanas afectadas por el mismo, en el Golfo de México y puede que en otros lugares. A pesar de las cifras iniciales que se dieron, claramente subestimadas, ahora ya se conoce que este accidente se encuentra al menos en la misma categoría que las mareas negras ocasionadas por el Amoco Cadiz en 1978 o el Atlantic Empress en 1979, las sucedidas en Nowruz o Fergana en 1983 y 1992 e incluso las causadas en el mismo Golfo de México por la plataforma Ixtoc I en 1979 –un accidente bastante parecido al actual–. Esto puede convertir el siniestro de la Deepwater Horizon en el segundo o tercer peor vertido de la historia, ahora mismo o en fechas próximas. ¿De qué manera BP y sus asociados van a reparar el daño causado al medio y a las comunidades humanas, hasta qué punto exacto y con qué recursos económicos, políticos y sociales? Y no menos importante: ¿de qué manera van a indemnizar a las familias de los once trabajadores fallecidos?

5. Finalmente, ¿cómo van a parar el desastre actual y cómo van a reparar el daño total causado por el mismo?

Una vez los intentos de contener el accidente han fracasado, el petróleo sigue fluyendo al Golfo de México a un ritmo de entre 5.000 y 100.000 barriles por día, según las diversas fuentes (estimación original de BP: 5.000 bbl/día; Eugene Chaing de la Universidad de California en Berkeley: 20.000-100.000 bbl/día; Steven Wereley de la Universidad Purdue en testimonio ante el Congreso de los Estados Unidos: 95.000 bbl/día; entre otros).

En estos momentos, más allá del nuevo intento de tapar el orificio con una nueva cápsula, se están dando estimaciones de "meses" o "hasta agosto" para la perforación de pozos que alivien al siniestrado; lo que, en varios escenarios posibles a la luz de estos datos, podría convertir el desastre de la Deepwater Horizon en uno de los dos más graves de la historia, en la misma categoría que los vertidos ocasionados durante la Guerra del Golfo de 1991. Funcione el nuevo intento de taponar la perforación o no, ¿qué medidas de específicas están tomando o van a tomar para minimizar los daños mientras estos trabajos se completan, para reparar el daño causado al medio ambiente y para indemnizar a las comunidades afectadas por la prolongación en el tiempo de este desastre?

Soy consciente de que estas son preguntas complicadas a las que no se puede responder con las habituales frases hechas de relaciones públicas; pero es que, precisamente, somos bastantes las personas cansadas de frases hechas de relaciones públicas y necesitamos explicaciones de mayor calado y profundidad sobre lo sucedido en tanto que ciudadanos y consumidores de sus productos. Es por ello que les ruego un esfuerzo para dar a conocer a la sociedad la respuesta a estas cuestiones y cualesquiera otras que consideren oportuno añadir.

Queda atentamente a su disposición,


jueves, 27 de mayo de 2010

Así funciona un arma nuclear.

¿Qué hay en unas pelotas de metal pulido y una bolsa de polvo blancuzco para que sean capaces de aniquilar una gran ciudad?

La gente suele tener dos reacciones cuando observa por primera vez las tripas de un arma termonuclear, no necesariamente excluyentes entre sí. La primera es el sobrecogimiento: hasta el más zoquete intuye que no se halla ante una cosa corriente, sino ante un poder inquietante, asombroso y letal. La segunda es la decepción, porque aquello tiene las pintas de una poca chatarrería como la que podrías encontrar en cualquier garaje. Cuencos, tubos y aros de metal pulido. Moldes de una especie de gel amarillento, que recuerdan vagamente a las formas de un balón de fútbol. Otros, de poliestireno (sí, poliestireno común). Y los consabidos cables y circuititos electrónicos. Todo lo cual cabe perfectamente encima de una mesa cualquiera.

Entonces, el cachondo de tu guía podría decirte: "no, no, lo que explota es eso de ahí". Y tú mirarías, claro. Ahí, dentro de unos contenedores similares a neveras de camping, verías tres tipos de objetos. El primero, unas esferas metálicas pulidas muy parecidas a bolas de petanca. El segundo, una bolsa de polvo blanco. El tercero, una especie de termo de café pequeño.

–¿Eso es todo? –preguntarías, quizás.
–Eso es todo –te contestarían.
–¿Con eso puedo matar a cinco millones de personas?
–Como si jamás hubieran existido.

Si eres del tipo valiente o al menos curioso, a lo mejor te daba por acercarte al primero de los objetos. Descubrirías que es sólo lo que parece: pelotas de metal muy pesado, tibio al tacto. Y a lo mejor preguntabas con algún escalofrío en la voz:

–¿Esto es...?
–Sí. Eso es plutonio. Aunque envuelto en berilio.
–¿Y por qué está caliente?
–Porque es radioactivo. Pero no te preocupes: ahora está en fase alfa, no pasa nada.

A menos que seas del tipo especialmente valiente, lo más normal es que apartes la mano en ese mismo instante, claro. Entonces, puede que el graciosillo que te hace de guía te lance a los brazos la bolsa de polvo blanco. Igual te asustas y esperas un golpe, pero cuando te cae en las manos descubres que no pesa nada. Es sólo un polvo tenue, muy fino, muy blanco, inocente. Ni frío, ni caliente, ni fresco, ni tibio. Neutro. Seco. Tu acompañante levanta en su mano el pequeño termo de café y lo pone ante tus ojos.

–¿Y esto qué es? –te atreves a preguntar, aunque con un temblor indefinible desde la coronilla hasta la horcajadura.
–Esto es la materia de la que están hechas las estrellas –te contestan.
–No j*das.
–Lo que oyes. Eso que tienes en las manos es deuteruro de litio. Lo llamamos liddy. Y lo que hay aquí dentro es tritio: un gas. Todo son isótopos del hidrógeno y del litio. Con esto puedes encender una estrella sobre una ciudad.
–Ah.

Es posible que sientas la tentación de dejarlo todo en su sitio y salir corriendo de allí dando educadamente las gracias pero tan deprisa como te permitan tus piernas. O igual te puede la curiosidad –o el morbo, vamos– y te quedas un poquito más. Sólo un poquito más, ¿eh? Por interés cultural. Científico. ¡Nadie lo duda! Tu guía, que seguramente llevará un uniforme militar o una bata blanca, sonríe. Ya eres de los nuestros, piensa. Pero sólo dice:

–¿Te gustaría saber cómo funciona?

Fisión.

El corazón de un arma nuclear moderna es tan solo una esfera hueca de plutonio-239 supergrade al 99% o más, normalmente envuelta en otra concéntrica de berilio. Si es un arma muy avanzada, contendrá menos de tres kilos de plutonio; con lo denso que es, eso te cabe en el puño aunque seas de manos pequeñas. Hueca y todo, no es más grande que una bola de petanca. Si fuera de mediana tecnología, serán unos cuatro o cinco kilos y un poco mayor, como una pelota de voleibol. La bomba de Nagasaki usó 6,2 kg.

Todas estas cifras son inferiores a la masa crítica del plutonio-239 a temperatura y densidad corrientes, que es de aproximadamente diez kilos. Recuerda esto de la temperatura y densidad, porque va a ser importante. ¿Y qué es esto de la masa crítica? La masa crítica es la cantidad de material fisible –normalmente uranio-235 o plutonio-239– necesaria para que éste inicie una reacción en cadena espontánea. Vamos a ver qué es esto de la reacción en cadena.

Todas las sustancias radioactivas son inestables. Esto quiere decir que sus átomos tienden a emitir energía –la radioactividad propiamente dicha– en forma de ondas y partículas (¿recuerdas los fundamentos de mecánica cuántica?). Algunas sustancias, además de radioactivas, son fisionables. Es decir, que los núcleos de sus átomos son tan grandes e inestables que pueden partirse con facilidad y de hecho lo hacen; por ejemplo, el uranio-238 o el plutonio-240. Cuando el núcleo de un átomo se parte, se convierte en núcleos más pequeños y libera energía como estas ondas y partículas.

¿Qué es lo que hace que un núcleo fisione, es decir, se rompa? No gran cosa. Ocurre constantemente en la naturaleza, por simple probabilidad cuántica o cualquier estímulo exterior. Los núcleos grandes e inestables tienden a romperse y, según una determinada probabilidad, lo hacen a todas horas. Por ejemplo, la mayor parte del uranio existente en la naturaleza ha fisionado ya a lo largo de los últimos miles de millones de años, y por eso es tan raro en la actualidad. Esto se llama fisión espontánea, y va ocurriendo a su ritmo. En la imagen de la derecha, un núcleo de uranio-235 absorbe un neutrón, se convierte en uranio-236 altamente inestable y fisiona en dos elementos nuevos, kriptón-92 y bario-141 (sí, como en la transmutación de los alquimistas). Al hacerlo, libera varios neutrones más y una cantidad importante de energía en forma de radiación.

Algunas sustancias en particular, además de radioactivas y fisionables, son fisibles. Fisible significa que fisionan intensamente y además de una manera especial. Lo hacen fragmentándose en núcleos mucho más pequeños y emitiendo neutrones rápidos, muy energéticos (como el núcleo de U-235 de la imagen). Tan energéticos, que desestabilizan rápidamente los demás átomos que haya alrededor. Entonces, estos resultan estimulados para fisionar también, y así una y otra vez, en una reacción en cadena que se va amplificando cada vez más. Los dos elementos más fisibles del universo conocido son el uranio-235 y el plutonio-239. Por eso son los que se usan como combustible en las centrales nucleares. Y como explosivo en las armas atómicas.

Sin embargo, la reacción en cadena se interrumpe rápidamente si no hay bastante material alrededor. Esto se debe al sencillo hecho de que los átomos de la materia están enormemente separados entre sí –la inmensa mayoría de lo que ven tus ojos y tocan tus manos es espacio vacío, aunque no lo parezca–. Por ello, la mayor parte de los neutrones que surgen en estas fisiones espontáneas no llegan a alcanzar otros núcleos fisibles y se pierden hacia el exterior en forma de radiación neutrónica. Es preciso acumular una cierta cantidad de material para que haya muchos núcleos fisibles por todas partes, la probabilidad de que los neutrones alcancen alguno de ellos aumente y la reacción se mantenga a sí misma.

Esto es la masa crítica: la cantidad de material fisible que necesitas acumular para que se produzca una reacción en cadena sostenida. Cuando usas uranio-235, esta cantidad es de 52 kilos. Usando plutonio-239, es de sólo diez kilos. Por eso, las bombas de plutonio son mucho más pequeñas y ligeras que las de uranio, lo que facilita su uso militar práctico. A la izquierda, vemos una masa subcrítica (arriba) donde la mayor parte de los neutrones escapan; una masa crítica (al medio) donde hay reacción en cadena sostenida; y una masa también crítica (abajo) que, a pesar de ser tan pequeña como la primera, está envuelta en un reflector neutrónico (como el berilio) y eso le permite alcanzar criticidad.

Porque, ¡un momento! Hemos dicho que una bomba de plutonio usa 6,2 kg en sus versiones más primitivas y menos de tres en las modernas. Entonces, ¿cómo puede producir una de estas reacciones en cadena? ¡No hay material suficiente!

Aquí radica, precisamente, la genialidad de un arma de fisión. Sí, es genialidad, qué demonio. Por no contener suficiente material para producir una reacción en cadena sostenida, la bomba es segura por completo en condiciones ambientales normales. Puedes usar la pelota de plutonio como bala de cañón y no pasará gran cosa; sólo causarás un poco de contaminación por los alrededores, más tóxica que radioactiva (el plutonio es muy venenoso).

El plutonio es mejor que el uranio por otra razón. Aunque su procesado metalúrgico resulta mucho más difícil que el del uranio –lo que requiere el uso de tecnologías industriales más avanzadas–, su emisión de neutrones por fisión espontánea es baja. Esto significa que tarda más en iniciar la reacción en cadena, pero cuando lo hace, lo hace más de golpe. Más explosivamente, como si dijéramos.

La pequeña explosión, la gran explosión.

En primer lugar, tomamos la esfera hueca de plutonio-239 y la envolvemos en otra concéntrica de berilio. El berilio no es fisionable, ni fisible, ni siquiera radioactivo. Está ahí porque constituye un reflector neutrónico de primera. Es decir: cuando recibe los neutrones rápidos del plutonio que hay dentro, tiende a devolvérselos e incluso añadir unos cuantos más. Esto ayuda a sostener la reacción en cadena, pues los neutrones que escapan de la misma al exterior resultan rebotados de vuelta al interior.

Entonces, tomamos esta esfera hueca de plutonio-berilio y la rodeamos a su vez con un explosivo convencional en una disposición muy similar a las costuras de un balón de fútbol. Hoy por hoy, este explosivo es habitualmente TATB, por tres razones: resulta extremadamente estable –lo que reduce el riesgo de detonación accidental–, la onda de choque que produce es muy simétrica (va a avanzar como una esfera perfecta hacia fuera y hacia adentro; recuerda esto de hacia adentro), y su velocidad de detonación es alta, para completar el proceso muy deprisa. Por lo demás, es un explosivo corriente de la familia de los nitrobencenos / nitrotoluenos (como el TNT).

Antiguamente, pondríamos en el centro de la esfera hueca una bolita de polonio-berilio o algo así, como fuente neutrónica; hoy en día, se usa gas de deuterio/tritio, dos isótopos del hidrógeno. Lo que estamos intentando es, en esencia, ultracomprimir bruscamente la esfera hueca de plutonio de tal modo que quede atrapada entre una fuente neutrónica –la bolita de polonio o el gas– y un reflector de neutrones –la funda de berilio–; de tal modo que aumente enormemente su densidad, su temperatura y su flujo neutrónico. Porque entonces la masa crítica efectiva se reduce de golpe y cae de los diez kilos en condiciones normales a mucho menos de tres kilos, con lo que se volverá supercrítica instantáneamente. ¡Ojo, que esta es la clave! Vamos a explicarlo un poquito mejor:

Dijimos que la masa crítica del plutonio es de unos diez kilos en condiciones normales de densidad y temperatura. Pero resulta que la masa crítica es inversamente proporcional a la densidad, la temperatura y la cantidad de neutrones rápidos que haya circulando por dentro. Cuanto mayor es la densidad, la temperatura y el flujo neutrónico, menor es la masa crítica. Si conseguimos comprimir muy deprisa la esfera hueca de plutonio en forma de una esfera compacta a alta temperatura, presión y flujo neutrónico, el plutonio saltará rápidamente de ser muy subcrítico a ser muy supercrítico, lo que iniciará una reacción en cadena sostenida e instantánea de alta energía hasta que el material se agote o disperse por la propia explosión resultante. Como además –dijimos más arriba– al plutonio le cuesta un poquito empezar a emitir neutrones, cuando empiece a suceder sucederá de golpe, en avalancha, formando un pico de energía más breve pero más intenso que el del uranio. (En la imagen de la izquierda, 5,3 kg de plutonio-239 militar supergrade al 99,96%, antes de su procesado metalúrgico; suficiente para volar una ciudad).

Evidentemente, la manera más práctica de comprimir deprisa un material es rodeándolo con un explosivo de detonación rápida y haciéndolo estallar. Estos eran los moldes de material amarillento que vimos encima de la mesa al principio. Dispuestos alrededor de la esfera de plutonio-berilio y detonados con mucha precisión –para eso eran los cables y circuitos electrónicos– van a provocar una onda de choque esférica y muy rápida que avanzará hacia el exterior –como en cualquier otra explosión– pero también hacia el interior, en lo que denominamos una implosión. De hecho, a toda esta clase de armas se las llama de detonación por implosión.

 
¿Estamos listos para volar algo serio? Pues vamos allá. Atención, porque va a ocurrir todo en pocos microsegundos:
1. Nosotros nos limitamos a activar los detonadores exteriores del explosivo convencional, y ya no tenemos que hacer nada más. De lo único que tenemos que asegurarnos es de que la detonación sea muy precisa, pues de lo contrario la onda de choque será asimétrica y el material no implosionará perfectamente hacia el centro.
2. El explosivo convencional que envuelve la esfera de plutonio-berilio estalla. La parte de la onda de choque que viaja hacia el interior comprime violentamente la esfera hueca hacia su centro geométrico, aumentando su densidad y temperatura a alta velocidad.
3. El hueco interior desaparece. La esfera es ahora sólida y se está ultracomprimiendo contra la fuente neutrónica interior.
4. Si la bomba está bien diseñada y ejecutada, ocurren cinco fenómenos simultáneamente en menos de un microsegundo:
  •  El plutonio se vuelve supercrítico, con lo que ya puede iniciar la reacción en cadena.
  •  La fuente neutrónica del centro se activa por temperatura/presión e inunda instantáneamente el plutonio con neutrones rápidos que lanzan la reacción en cadena por todas partes a la vez.
  •  La reacción en cadena del plutonio se inicia en avalancha. Comienza a producirse energía.
  •  La esfera exterior de berilio rebota los neutrones que intentan escapar de nuevo hacia el interior.
  •  Todo esto coincide con el pico máximo de presión ocasionado por la onda de choque del explosivo convencional, con lo que la reacción, en vez de disgregarse, se concentra cada vez más.
5. Se produce una reacción en cadena instantánea de alta energía durante un cuarto de microsegundo. El centro geométrico del arma salta de golpe a estado plasmático, con una temperatura equivalente a cientos de miles de grados centígrados, con lo que la reacción se embala aún más.
6. Estas reacciones producen una violenta oleada de radiación fotónica electromagnética –luz visible, radiofrecuencia, infrarrojos, gamma, rayos X– que escapan al aire circundante a la velocidad de la luz. Se inicia el destello más brillante que un sol. Conforme la funda de berilio termina de desintegrarse durante otro cuarto de microsegundo, se le unen los neutrones rápidos que escapan de las reacciones en cadena en forma de radiación neutrónica.
7. La energía así generada comienza a disgregar el material y supera por muchos órdenes de magnitud la "energía implosiva" producida por el explosivo convencional, que se torna irrelevante en comparación. El plutonio que no ha fisionado todavía se vuelve de nuevo subcrítico y la reacción en cadena se interrumpe.
En menos de cinco microsegundos, el fenómeno ha finalizado y tenemos un cogollo de alta energía ultraconcentrada que se irradia velozmente en todas direcciones; la mayor parte, a la velocidad de la luz. Cuando esto ocurre dentro de la atmósfera, lo que hay en todas direcciones es, fundamentalmente, aire. Este aire absorbe parte de la radiación ultravioleta, parte de la gamma y casi todos los rayos X.

Como consecuencia, el aire se calienta en forma de una burbuja que se expande a varias decenas de millones de grados centígrados; esto se conoce como esfera isotérmica y brilla como cientos de millones de soles, desintegrando súbitamente todo lo que esté a su alcance. Cualquier persona que mire en su dirección quedará ciega al instante. Unos cien microsegundos después, su temperatura ha descendido a 300.000 ºC y ya sólo brilla como diez millones de soles; entonces, comienza a formarse una onda de choque en su superficie. Esto es la separación hidrodinámica. Esta onda de choque, que echa a correr a cien veces la velocidad del sonido (sí, Mach 100), no sólo transporta una brutal energía cinética sino que calienta por compresión las capas de aire de alrededor hasta unos 30.000 ºC: cinco veces la que hay en la superficie del sol. Todo lo que quede dentro de esta región (unos 220 metros para una bomba de 20 kilotones, menos que Nagasaki) resulta reventado y vaporizado sin importar de qué material estuviera hecho. No existe materia bariónica en el universo conocido capaz de resistir estas temperaturas ni muy remotamente. Estamos en la llamada área de aniquilación.

En este punto, la temperatura va cayendo a unos 3.000 ºC. Esta primera bola de fuego deja de brillar y se vuelve transparente, fenómeno conocido como la ruptura (breakaway). Pero entonces la esfera isotérmica aparece de nuevo por detrás, aún a 8.000 ºC; impacta contra la onda de choque que ha ido perdiendo velocidad y la realimenta violentamente, provocando así una tormenta ígnea en todas direcciones a miles de grados de temperatura y velocidades supersónicas. Es la onda de choque termocinética o segundo pulso, causante de la destrucción extensa típica de las armas nucleares, que en las más potentes puede llegar a decenas de kilómetros. Las personas mueren abrasadas, reventadas y por efecto del colapso de los edificios y el impacto de los proyectiles que vuelan a gran velocidad hacia todas partes (notoriamente, los cristales). Conforme aumenta la distancia, poco a poco, la onda de choque se va disipando (las colinas y otras irregularidades del terreno pueden proteger a lo que haya inmediatamente al otro lado). La cosa no acaba aquí; qué va.

Volvamos al principio. Teníamos un cogollo de alta energía irradiando a su alrededor. Hemos visto lo que ocurre con la parte de esta energía que interactúa con el aire, pero resulta que el aire es transparente al resto. El resto de la energía, pues, viaja libremente a su través hasta chocar con otras cosas sin que nada la pare por el camino, decreciendo sólo con el cuadrado de la distancia (por teoría de campos). Hay una parte de los rayos gamma, por ejemplo, que atraviesa el aire sin más e irradia lo que haya alrededor, incluyendo por supuesto a los seres vivos. A los seres vivos, la radiación gamma masiva les sienta fatal, pero fatal de veras: la tierra se vuelve estéril y la gente y los animales mueren al momento o más tarde, de síndrome radioactivo agudo. Esta es la irradiación directa de un arma nuclear.

¿Te acuerdas de todos esos neutrones que escaparon cuando finalizaba la reacción en cadena?  Bueno, pues esos también llegan detrás, y la radiación neutrónica es extremadamente penetrante. La más penetrante de todas, capaz de atravesar metros de hormigón armado. Bien es cierto que estos interactúan un poco más con el aire... para producir más radiación gamma. Pero los neutrones hacen algo que no hacen las otras formas de radiación: cuando alcanzan los átomos circundantes, los desestabilizan y los vuelven radioactivos también. Y a continuación viene la onda de choque, para pulverizarlos y esparcirlos por todas partes: es la primera fase de la contaminación radiológica, a la que pronto se sumarán los restos de la bomba y los isótopos radioactivos formados al paso de la esfera isotérmica. Cuando la onda de choque cese, la nube en hongo y los vientos terminarán de esparcirlos por todas partes.

¡Volvamos otra vez al principio! Una vez más, sólo una vez más: te lo prometo. La bomba ha emitido también grandes cantidades de energía fotónica/electromagnética en forma de radiofrecuencia, a las que hay que sumar las emisiones de los átomos excitados de la esfera isotérmica. Esto produce varios fenómenos curiosos, que eran en su mayor parte secretos hasta hace poco tiempo. Para empezar, por ejemplo, tenemos los pulsos electromagnéticos; no obstante, cuando la explosión se produce dentro de la atmósfera estos pulsos no llegan muy lejos y sus efectos sobre los equipos eléctricos y electrónicos resultan indistinguibles de la misma destrucción ocasionada por el arma. Sin embargo, también se producen otros más extraños como el oscurecimiento (blackout), que bloquea las ondas hertzianas (y con ellas las transmisiones de radio o televisión, el rádar y demás). Este oscurecimiento radioeléctrico es todavía muy poco conocido a nivel público, pero se sabe que se origina al menos de tres maneras diferentes y puede durar horas o días (hasta que se disipa el aire altamente ionizado).

Así funciona una bomba de fisión como la de Nagasaki y en general las primeras que hicieron los EEUU, la URSS o cualquier otro país. Su principal problema es que existe un límite práctico a la potencia que pueden liberar, directamente dependiente de la cantidad de plutonio que cargue y tu pericia científico-técnica a la hora de extraerle una eficiencia máxima. En el mundo real, resulta impráctico hacer armas de fisión pura con más de quinientos kilotones; y sale antieconómico superar los ochenta o cien (cuatro veces Nagasaki). Además, son muy poco flexibles.



Grapple-Orange Herald (31 de mayo de 1957). Desarrollada por el Reino Unido, fue el dispositivo de fisión más potente detonado jamás: cerca del límite teórico máximo, con 720 kilotones efectivos (cincuenta veces Hiroshima). Las armas de fisión de este calibre son muy costosas e imprácticas.

–¿Y entonces? –le preguntas a tu guía, el simpático.
–Entonces, aprendimos a hacer estrellas –contesta él.
–Creí que me habías dicho que esto ya era como un sol.
–Ah, sí, pero no es un sol de verdad. Los soles de verdad no funcionan así. Son mucho más poderosos. Así que hicimos estrellas de verdad.
–No me lo puedo creer.
–¿Y para qué te crees que es ese polvo blanco que tienes ahí y este termo que tengo yo aquí?
–¿La materia de la que están hechas las estrellas?
–Sí. Y las pesadillas.

miércoles, 26 de mayo de 2010

Adiós, Atlantis.

Qué queréis... era mi favorita.


Si nada lo remedia, hoy has hecho tu último vuelo. La primera vez que subiste a los cielos, a mí aún me faltaba un tanto para ser mayor de edad. Y de todas tus hermanas, siempre fuiste mi favorita. En aquel tiempo, todo el mundo estaba aún enamorado de Challenger; por algún motivo, yo supe que tú eras mejor. Te vi volar acompañado por muchas personas que ya no están; y por ello, también formas parte de mi historia personal, esa que cada uno de nosotros se llevará con él.

Llevaste más de doscientos humanos a las estrellas, y nunca te dejaste allá lejos a ninguno de los nuestros. Mandaste la Magellan a la luz del lucero del alba, la Galileo al viejo dios de los dioses, el Gran Observatorio Compton a aprender para todos nosotros cosas extraordinarias sobre el universo al que pertenecemos, el universo que somos. También serviste a tus militares; está bien, ese es el mundo en que nos ha tocado vivir. Y sin ti, la Estación Espacial Internacional no habría podido existir y el Gran Observatorio Hubble habría muerto ya.

Fuiste la primera en viajar a Mir, abriendo una nueva época para Estados Unidos, para Rusia y para la humanidad que no pudo llegar a ser pero quizás será. En todo caso tú y las personas que había detrás de ti, al menos, lo intentásteis.

Adiós, Atlantis. Fuiste una magnífica máquina, un мечта, y serviste bien a tu país y a nuestra especie. Quedas para la historia maravillosa que algún día se escribirá.

domingo, 23 de mayo de 2010

A la memoria de Martin Gardner

Hoy, el mundo es un poco peor.

Supongo que ya lo sabrás, pero por si acaso... el matemático, filósofo de la ciencia y extraordinario divulgador Martin Gardner ha fallecido hoy a la edad de 95 años. Se puede ser igual de útil a la sociedad y al mundo que él; pero difícilmente más. Le tomo a matuk.com las palabras de James Randi, porque no se puede decir mejor:
Murió Martin Gardner. He temido al escribir estas palabras y sé que a Martin no le hubiese gustado saber que estoy devastado sobre lo que sabía, día a día, pasaría muy pronto. Me alegra reportar que al menos falleció sin dolor y rápidamente. Este hombre fue uno de mis gigantes, un amigo por muy largo tiempo, quizás unos 50 años aproximadamente. Era un placer, un punto brillante en mi firmamento, alguien con quien uno siempre podría preguntarle algo o decirle alguna idea, por más extraña que ésta pudiese ser.


Nunca tuve una palabra de disgusto con Martin, Nunca. Siempre fue todo risas y sonrisas. Lo mejor de todo.

Perdónenme por escribir así, sin editarlo. Es solamente lo que se me va ocurriendo.

No puedo pensar en mi mundo sin él. Y solamente ayer, mandé imprimir una nueva serie de etiquetas de correo para él, con papel membretado, el cual no pudo ser enviado por correo. Por los últimos dos años le ayude con un pequeño favor, asegurándole que me notificaría cuando se quedara sin etiquetas, pero nunca lo hizo, quizás porque pensó que esto sería un gran problema para mí.  Solamente cuando recibí una carta de él la semana pasada, con su dirección escrita a mano, supe que era momento de otro envío a Oklahoma.

Era tan buen hombre, productivo y miembro útil de nuestra sociedad, y puedo anticipar la reacción internacional a su muerte. Sus libros, muchos de ellos, sirven para recordarnos de sus contribuciones a todos nosotros. El último me lo dedicó a mí, y estoy tan orgulloso de ese hecho, pero tan orgulloso…

Esto me tomará un tiempo, pero Martin querría que regresara a mi vida, así que eso haré. Es muy difícil…

--James Randi
Y el video de La naturaleza de las cosas; a poco que entiendas el inglés, deberías verlo:



The Nature of Things / Martin Gardner from Wagner Brenner on Vimeo.

¿Dónde está el futuro de la exploración espacial?

Incertidumbres tecnológicas, económicas y políticas nos mantienen atados en las órbitas próximas a la Tierra.

No se escapa a nadie que los grandes proyectos de la humanidad viven tiempos inciertos. Durante las dos últimas décadas, parecemos haber caído en una especie de decadencia tecnificada, acomodados, timoratos e incapaces de dar pasos colectivos en una dirección clara. La verdad es que llevamos una buena temporada dejando el pabellón muy bajo. Esto se plasma de manera notoria en la exploración espacial humana, resumen y símbolo contemporáneo de lo que somos capaces de hacer. ¿A dónde vamos, en este preciso momento de nuestra historia?

Breve recuerdo de la exploración espacial.

La historia de la exploración espacial humana se puede dividir en tres etapas, más una etapa cero. Esta etapa cero se extiende desde el redescubrimiento en 1903 de la Ecuación del Cohete por el padre de la astronáutica Konstantin Tsiolkovsky hasta las V-2 nazis de la Segunda Guerra Mundial. Hay quien considera a las V-2 como el primer vehículo espacial, pues algunas de ellas tenían el apogeo de su trayectoria balística por encima de la línea Kármán, que separa convencionalmente el espacio aéreo terrestre del espacio exterior. Sin embargo, su incapacidad para permanecer en el espacio o entrar en órbita las convierte más bien en el primer SRBM y el antecesor inmediato del cohete espacial.

Muy a grandes rasgos, estas tres etapas de la exploración espacial humana son las siguientes:
  • Etapa 1 o los tiempos heroicos: Comienza con el lanzamiento del Sputnik 1 en 1957, las primeras llegadas automáticas a la Luna de 1959 (Luna 2, Luna 3) y el vuelo de Yuri Gagarin en 1961. Se extiende más o menos hasta los vuelos tripulados a la Luna de 1969-1972 (Apolo 11 a Apolo 17) y las misiones interplanetarias automáticas a Venus que se iniciaron en 1965.

  • Etapa 2 o los tiempos de consolidación: El esfuerzo primario se centra ahora en conquistar sólidamente las órbitas próximas a la Tierra. La apuesta emblemática norteamericana es el transbordador espacial, iniciado durante los años 70, que voló por primera vez en 1981; su retirada está prevista este año. Los soviéticos, por su parte, apostaron por un denso programa de estaciones espaciales (Salyut 1 a Salyut 7, de 1971 a 1986) que culminaría con la no menos emblemática Mir (1986-2001); la nave más representativa de esta opción es la Soyuz, que sigue en activo.
  • Etapa 3 o los tiempos de comercialización: tras la disolución de la URSS en 1991 y las nuevas políticas económicas en Occidente orientadas a la reducción del gasto público y la liberalización económica, así como con el surgimiento de nuevos competidores, los grandes programas espaciales se van viendo retrasados o suprimidos en favor de aproximaciones con una rentabilidad más inmediata o cooperaciones internacionales mediante tecnologías probadas como la Estación Espacial Internacional (que está construida en torno de lo que iba a ser la Mir 2).

Merece la pena detenerse un poco en esta última etapa, pues es la que estamos viviendo ahora mismo. Los grandes proyectos que se daban por descontados durante las dos etapas anteriores (regreso a la Luna, viajes tripulados a Marte y Venus, inicio de la exploración extensiva de las lunas de Júpiter y Saturno, comienzo de la industrialización del espacio) languidecen o han desaparecido en el pozo de unos presupuestos cada vez más reducidos, algunas de cuyas expresiones más extremas dieron lugar a problemas notorios.

La situación actual.

Por un lado van los programas militares, a su rollo; su expresión más notable hoy por hoy siguen siendo los satélites de telecomunicaciones especiales, navegación (GPS/GLONASS) y de reconocimiento estratégico. Los planteamientos de combate espacial –de manera muy conocida, la Guerra de las Galaxias de Reagan– han ido quedando cancelados por su coste, baja confiabilidad y rápida obsolescencia, cuando no por ser simplemente impracticables; hoy por hoy, se reducen a débiles aproximaciones ASAT. En todo caso, los militares están firmemente anclados a las órbitas cercanas a la Tierra, por la sencilla razón de que lo que le interesa a los militares ocurre sobre todo en la Tierra. Los lanzamientos estatales/militares siguen constituyendo aproximadamente el 50% del total, sobre todo en lo que hace referencia a Estados Unidos y en menor medida Rusia.

Los programas científicos se han ido desarrollando con altibajos a lo largo de estos últimos años y los más notables –como los Grandes Observatorios del tipo del Hubble, el Chandra y el Spitzer– orbitan también en las cercanías de nuestro planeta, entre otros motivos porque no necesitan estar más lejos para cumplir su misión estupendamente. Aunque de cuando en cuando las agencias espaciales y las universidades nos obsequian con alguna excitante misión más allá, a nadie se escapa que estas misiones son mucho menos ambiciosas que sus equivalentes de unas décadas atrás. ¿Alguien se imagina algo tan radical y revolucionario como las Venera, las Apolo, el transbordador o la Mir en la actualidad? Sea como fuere, los lanzamientos científicos suelen formar entre el 10% y el 15% de los lanzamientos totales.

El sector más vigoroso de la exploración espacial presente está, sin duda, en el ámbito comercial. Hoy por hoy, entre el 20% y el 40% de los lanzamientos espaciales son comerciales. Esto es, una carga de un tercero (estatal o privado) contratada para su lanzamiento a alguna potencia con la capacidad de realizarlos, pagando buen dinero a cambio. Esta potencia suele ser Rusia, que trimestre a trimestre acapara entre el 30% y el 60% de todos los lanzamientos comerciales por su fiabilidad, conveniencia y bajo coste. Lanzar con los europeos sale caro, y con los estadounidenses, caro y medio (a continuación veremos esto con más detalle).

Estudio de los lanzamientos espaciales comerciales (total mundial) en periodo 2000-2010, con detalle del reciente quinquenio 2005-2010 y evolución a lo largo de la década (clic para ampliar).

Los dos grandes problemas.

Los dos grandes problemas que afectan a las posibilidades de exploración espacial humana en el futuro inmediato son fáciles de expresar, pero difíciles de resolver.

El primero de estos problemas radica en las ciencias y tecnologías de la propulsión. Enviar cosas al espacio sigue siendo brutalmente caro y bastante difícil. El pozo gravitatorio de la Tierra nos obliga a usar grandes cohetes propulsores y cantidades enormes de combustible muy costoso; además, el número total de lanzamientos es muy bajo en comparación con cualquier otro medio de transporte, por lo que las economías de escala juegan a la contra. Cada kilogramo de carga típica en órbita baja cuesta un mínimo de tres o cuatro mil dólares, que ascienden a quince mil para los lanzamientos a órbita geoestacionaria (obsérvese que el enlace está en libras: 1 kg son 2,2 lb). Y eso, usando los cohetes rusos más económicos. La cifra asciende a entre ocho mil y veintipico mil, respectivamente, utilizando propulsores europeos Ariane-5; y desde diez mil a cincuenta mil si quisiéramos lanzar con el transbordador espacial norteamericano. Por kilo.



De media, una botella de agua mineral de litro cuesta en el espacio un mínimo de tres mil euros y más probablemente unos siete mil: un euro para comprarla y el resto para lanzarla. Hay algunas iniciativas en marcha para reducir este coste al rango de los mil euros por kilo durante los próximos años, pero de momento no tienen nada claro y ya acumulan muchos retrasos. Aún así, seguiríamos hablando de cifras bastante espectaculares.

Pero el problema no se acaba aquí. En el espacio, las distancias son abismales. Ir a la Luna son sólo tres días de viaje con las tecnologías presentes, pero para Venus ya hacen falta cuatro meses y si salimos hacia Marte, al menos seis y más habitualmente nueve (con lanzamientos especialmente costosos, mucho más que los de las órbitas corrientes mencionadas arriba). A partir de aquí, las distancias y tiempos comienzan a crecer monstruosamente. Hoy por hoy, el viaje interestelar (entre sistemas solares distintos) es simplemente un sueño. Por supuesto, el límite absoluto de la velocidad de la luz en el vacío pesa como una maldición cósmica sobre los viajeros futuros, pero a nosotros aún nos falta un tanto para tener que preocuparnos por él: las naves espaciales más rápidas construidas hasta hoy por la especie humana volaron a dos diezmilésimas partes de la velocidad de la luz.

En realidad, no es demasiado difícil hacer una nave espacial capaz de acelerar hasta la mitad de la velocidad de la luz más o menos (a partir de ahí empiezan otros problemas con peor arreglo). Bastaría llevar el combustible suficiente para mantener el motor encendido durante algún tiempo: a una aceleración de 9,8 ms-2 (equivalente a la de la gravedad terrestre, para que sus ocupantes vayan cómodos) se puede alcanzar el 50% de la velocidad de la luz en menos de doscientos días, con muy pocos efectos relativistas. Sin embargo, los problemas de índole práctica y económica son enormes: requiere construir y lanzar una nave inmensa, para poder cargar todo ese combustible; o, alternativamente, usar tecnologías que en estos momentos sólo empezamos a vislumbrar.

El segundo problema que afecta al futuro de la exploración espacial es más simple aún: el dinero, a pelo. En cuanto nos planteamos cosas más grandes de las que estamos haciendo por el momento, estos costes ya de por sí altos se multiplican por muchos órdenes de magnitud. Sencillamente, como especie no tenemos esa clase de dinero aún (es decir: de recursos fácilmente accesibles); y lo que podemos hacer con nuestros recursos actuales no permite obtener unos retornos que justifiquen la inversión en el plano económico. No se justifica hoy por hoy una Flota de las Indias Cósmicas que vuelva cargada de oro y plata; para empezar, porque ese oro y plata –o lo que ocupe su lugar– sería enormemente caro, mucho más que el disponible en la Tierra debido a los altos costes del viaje espacial. Al menos con los sistemas político-económicos presentes, sería un negocio ruinoso.

Rusia: el deseo y la impotencia.

Las dos grandes potencias cósmicas presentan distintos problemas para liderar la reactivación de la exploración espacial humana.

Rusia tiene la tecnología, los expertos, la voluntad política y el mercado comercial más grande del mundo, pero le falta la clase de riqueza a gran escala que generaba la economía soviética hasta 1990. En la actualidad, y a pesar de una sobresaliente recuperación en años recientes, la economía rusa tiene apenas un 41% del tamaño que tuvo la soviética en el último año de existencia de la URSS (y todas las economías ex-soviéticas juntas, un 56%). Esta reducción del volumen de recursos disponibles ha constreñido severamente el programa espacial ruso, tanto en solitario como con las colaboraciones ucranias y kazajas. El mal comportamiento de la economía ucrania en estos años (es uno de los pocos países de la ex-URSS cuya economía es aún más pequeña hoy que durante la catástrofe de 1992-1993) sugiere que la participación de este país en la exploración espacial finalizará, al menos temporalmente, cuando el nuevo Angara desplace al Zenit.

 (Clic para ampliar)

A pesar de estas restricciones económicas, Rusia mantiene un programa bastante ambicioso. El Plan Federal 2006-2015 prevé las siguientes actuaciones, que se extenderán más allá de 2015:
  • Sustitución de las naves tripuladas Soyuz por su sucesor PPTS (que algunos llaman súper-Soyuz). Las indecisiones de la Agencia Espacial Europea –que primero iba a cooperar, luego que no, luego que sí, luego que no otra vez, hasta que los rusos se hartaron y tiraron por la calle de enmedio– han retrasado fuertemente este proyecto, junto a los propios problemas de financiación rusos. Al parecer, TsSKB Progress de Samara, la inmensa fábrica de cohetes en serie, ha empezado ya a trabajar en el lanzador Rus-M para este nuevo vehículo.
  • El retorno a la Luna, con cuatro naves automáticas Luna-Glob, la primera de ellas en cooperación con Japón. No es previsible que el primer lanzamiento se produzca antes de 2012.
  • Un nuevo intento a Marte, con Fobos-Grunt, programada para 2011.
  • El retorno a Venus, con Venera-D, programada para 2016.
  • Completar el experimento humano MARS-500 para la simulación de un vuelo tripulado a Marte. Las dos primeras fases se realizaron satisfactoriamente en 2008 y 2009, y está previsto iniciar la tercera el 3 de junio de este año, simulando una misión tripulada al planeta rojo de 520 días.
  • Introducción del cohete lanzador pesado Angara, reemplazando una variedad de lanzadores obsolescentes heredados de la época soviética. Aunque ya se han realizado bastantes pruebas parciales y el GKNPTs Krunichev de Moscú tiene los trabajos muy adelantados, es improbable que se produzca el primer lanzamiento antes de 2013.
  • Restablecer la constelación de satélites de navegación GLONASS con 18 unidades; esto ya se ha logrado, y hay 21 en servicio actualmente (más dos en reserva). A partir de ahora se lanzarán satélites de tercera generación hasta un total de 30 en 2011, mejorando así su precisión y la disponibilidad global del servicio. 
  • Lanzamiento de los nuevos satélites de monitorización terrestre Resurs-P (vinculados al proyecto militar Persona) en sustitución de los Resurs-DK, así como los Smotr y Arkon.
  • Inicio de la constelación Vulkan para la alerta temprana frente a terremotos y otros desastres naturales. 
  • Completar el segmento ruso de la Estación Espacial Internacional.
  • Misiones científicas: Koronas-Foton (investigación solar, lanzada en 2009 y fallida), Spektr-R (radioastronomía, prevista en 2010), Spektr-RG (radioastronomía de rayos X y gamma, en rediseño), Spektr-UV (radioastronomía de radiación ultravioleta, en rediseño), Intergelizond (investigación solar, 2011), Celesta (astronomía estelar, 2018), Terion (geofísica, 2018) y restablecimiento de las misiones Bion de estudio de los efectos del viaje espacial sobre los seres vivos.
  • Nuevos satélites meteorológicos y climatológicos de los tipos Elektro-L (2011) y electro-P (más allá de 2015).
  • Numerosas misiones militares clasificadas.
Podemos ver que, a pesar de sus limitaciones económicas, el programa ruso sigue apuntando claramente en las direcciones precedentes. Incluso se habla de construir el primer astillero espacial, llamado OPSEK, cuando finalice la cooperación con la Estación Espacial Internacional. Este sería sin duda el primer paso para una futura industrialización del espacio. Claramente, tienen una visión, tienen la ciencia, tienen la tecnología, tienen la infraestructura, siguen contando con inmenso apoyo popular en su país y sólo les falta el dinero.

Estados Unidos: potencia sin norte (ni sur, ni...).

Estados Unidos tiene la ciencia, tiene la tecnología, tiene la infraestructura, tiene el dinero... pero nadie sabe a dónde va. Es un secreto a voces que la potencia norteamericana no tiene una visión de lo que quiere hacer en el espacio. El programa del transbordador espacial se acaba este año, y nadie había previsto un sustituto realista, hasta el extremo de que a partir del año próximo los Estados Unidos pasarán a depender de las Soyuz rusas para todas sus misiones tripuladas durante un tiempo indeterminado. El programa Constellation con la nave Orion y el nuevo cohete lanzador Ares están esencialmente cancelados, o en remojo, o lo que quiera que sea: el caso es que nadie sabe cuándo volarán, si es que vuelan; esto representa un hachazo enorme a las posibilidades norteamericanas para la exploración espacial.

La Vision for Space Exploration, que apostó brevemente por el regreso a la Luna y el viaje tripulado a Marte, es extremadamente dependiente del programa Constellation (además de poco realista, poco innovadora y probablemente inadecuada). Con Constellation en estado crítico, la VSE no se sostiene. Resulta obvio que Obama desea cancelar el paquete completo; y no le falta alguna razón, porque toda la idea estaba sustancialmente desenfocada y carecía de perspectivas claras.

Lo único que parecen tener claro los Estados Unidos es que desean mantener una fuerte presencia militar en el espacio. Sin embargo uno de sus componentes fundamentales, la Future Imagery Architecture de reconocimiento estratégico avanzado, fue cancelada en 2005 debido a monumentales sobrecostes económicos y diversos fracasos tecnológicos; ni uno solo de sus componentes llegó a entrar en órbita. Boeing gastó miles de millones de dólares de dinero público antes de que les cancelaran el contrato. El New York Times lo llamó "el fallo más costoso y espectacular en cincuenta años de satélites de reconocimiento estratégico". En su lugar, Lockheed Martin está implementando ahora satélites más convencionales. No obstante ello, Estados Unidos mantiene y mantendrá una fuerte presencia militar en el espacio durante los próximos años.

Estados Unidos quiere apostar por proyectos privados como el Falcon 9 con la nave espacial Dragon de SpaceX, el Taurus con la nave espacial Cygnus de Orbital Sciences Corporation, y el ya quebrado Rocketplane Kistler. Esto es absurdo. Todos estos proyectos son meramente subcontratas para hacer a gran coste y con poca experiencia lo mismo que hace ya cualquier Zenit, Soyuz o Proton (de hecho, OSC está subcontratando extensivamente con los ucranios e incluso con los rusos). El Taurus II incorpora motores rusos NK-33 de NK/Kuznetsov y tripas ucranias de Yuzhnoye (prácticamente toda la primera fase). Es tan parecido a un Zenit que hasta han tenido que darle el mismo diámetro para que las piezas encajaran: 3,90 metros; con la diferencia de que el Zenit es uno de los lanzadores más baratos que existen y el Taurus, uno de los más caros. Los motores Merlin para el Falcon 9 de Space X son de construcción propia, pero menos potentes, menos eficientes y con menor impulso específico que los NK-33 rusos de los años '70 utilizados por OSC.

En realidad, todo el concepto carece de sentido realista. Estas pequeñas empresas privadas no están ni cerca de sus competidores estatales internacionales. En el mejor de los casos están veinte años por detrás, y cincuenta en el peor. Puede que terminen consiguiendo algunos lanzamientos baratos (y yo no pondría la mano el el fuego), pero esto no es el futuro. En realidad, a Estados Unidos le saldría mucho más barato (y seguro) firmar ahora mismo cincuenta cohetes con los ucranios y los rusos y despreocuparse del tema por completo. Total, ya los están subcontratando, y más que lo van a hacer.

Por el otro extremo, los grandes lanzadores de Lockheed y Boeing son poco competitivos en el mercado comercial. En el año 2009-2010, como hemos visto más arriba, sólo lograron copar un 20% de los lanzamientos comerciales. Y el público estadounidense, a diferencia del ruso, pasa millones de su programa espacial y siempre está dispuesto a votar a cualquiera que prometa bajarles los impuestos metiéndole otro tijeretazo más.

En su situación actual, el programa espacial norteamericano no va a ninguna parte. Yo creo que al final serán capaces de salir de esta trampa en la que ellos mismos se han metido –Estados Unidos sigue siendo un gran país con mucha más capacidad de reacción de lo que muchos creen–, pero les va a costar años, puede que décadas, y muchísimo dinero.

Europa: la siempre prometedora, la siempre segundona.

O tercerona. Es muy curioso. La Unión Europea es la mayor economía del mundo, una de las más prósperas, dispone de avanzada ciencia y tecnología... y la voluntad política de un caracol. Se suele definir a la UE como un gigante económico y un enano político, y vive dios que es verdad. En política espacial, esto se nota enormemente. Aunque sus lanzadores Ariane 5 han logrado un pequeño porcentaje del segmento comercial, y durante las últimas década se ha animado con algunas misiones científicas, la Agencia Espacial Europea es sólo una sombra de lo que podría ser nuestro proyecto espacial en este siglo XXI que viaja rápidamente hacia la multipolaridad geoestratégica.

Y sin embargo, hablamos mucho de los yanquis y de los rusos pero tampoco vamos a ninguna parte en particular. Al menos, ellos lo intentan en serio. Un presupuesto anual típico de la ESA oscila entre 3.000 y 3.500 millones de euros (3.600 en 2009). En Rusia, a pesar de que su economía presente es catorce veces más pequeña que la europea, sólo Roskosmos cuenta con un presupuesto de 1.900 millones de euros (2009) y junto al resto de organizaciones espaciales rusas, probablemente supere los 3.000 millones (y los usan de una manera francamente más eficaz). La NASA, con todos sus recortes e incertidumbres, tiene un presupuesto anual de 15.000 millones de euros (2010) para un país cuya economía es sólo el 85% de la europea.

Los europeos no tenemos excusa. Somos un continente envejecido sin más ambición que languidecer en nuestras casitas tan cucas, detrás de nuestros altos muros, añorando tiempos pasados mientras el mundo cambia velozmente de forma a nuestro alrededor. Casos como el LHC son más la excepción que la norma (y porque sale barato de narices para lo que puede aportar: 6.000 millones de euros en total; como seis años de financiación de la deuda de las televisiones autonómicas españolas). El lentísimo progreso del Galileo y la ridícula bajada de pantalones ante Estados Unidos son bien expresivas.

Al menos, tenemos un programa científico de alguna envergadura. Aunque desde luego, no es Europa quien va a liderar la exploración espacial humana en los próximos años. Obviamente, hay otros deseando hacerlo.

China en ascenso.

El presupuesto anual de la CNSA es ya superior a mil millones de euros, y aumenta año tras año. La República Popular China quiere ir al cosmos, y quiere competir en los mercados espaciales internacionales.

El programa tripulado (proyecto 921) está, básicamente, reproduciendo paso por paso –pero de manera acelerada– los programas rusos Sputnik-Vostok-Soyuz 7K-OK. A fin de cuentas, si algo funcionó tan bien, ¿por qué no imitarlo para ganar tiempo (y dinero)? Sus naves Shenzhou se van pareciendo cada vez más a una Soyuz grande y provista de propulsión orbital autónoma. China puso su primer hombre en el espacio en 2003 (Shenzhou-5, tripulada por Yang Liwei), realizó su primer paseo extravehicular con una tripulación de tres hombres en 2008 (Shenzhou-7) y se dispone a montar una pequeña estación espacial a partir de 2011.

China dispone ya de cuatro espaciopuertos (Jiuquan, Taiyuan, Xichang y Wenchang) más una base suborbital (Guangde). Ha lanzado decenas de satélites, de tipo civil/comercial, científicos y militares. Su programa militar incluye satélites de reconocimiento estratégico, sistemas antimisil y sistemas antisatélite. Dispone de un programa experimental de satélites de navegación (Beidou) y quiere desplegar uno equivalente al GPS, GLONASS o Galileo (Compass); y estos no se van a bajar los pantalones. La serie Dong Fang Hong (que significa el Este es Rojo) desempeñan una pluralidad de servicios de telecomunicaciones, reconocimiento y observación. El Chang'e-1 ya fue a darse una vueltecita por la Luna, hay programadas tres más y ya están hablando de Marte y Saturno.

Los cohetes Larga Marcha, en sus varias versiones, constituyen uno de los lanzadores espaciales más económicos y eficientes que existen en la actualidad. Sin embargo, aún no son muy aptos para la comercialización abierta.

China todavía no es una potencia espacial a gran escala, en el sentido en que lo son Estados Unidos o Rusia. Pero en breve plazo ya podrá tratarse con la Unión Europea de tú a tú (en algunos ámbitos, ya está por encima) y no hay ningún motivo para pensar que no pueda convertirse en uno de los líderes futuros para la exploración cósmica.

Los pequeños, que son cada vez menos pequeños.

A Japón le pasa un poco como a Europa: es la tercera economía del mundo, pero su presupuesto anual para la JAXA apenas alcanza 2.000 millones de euros. Y su programa tampoco es especialmente ambicioso. Después de muchos años de problemas con sus cohetes, parecen haber estabilizado una tecnología fiable con los H-IIA y B de Mitsubishi; pero resultan muy caros para el segmento comercial. El J-1 de Nissan nunca llegó a imponerse por su altísimo coste y pocas posibilidades. Al igual que Europa, Japón ha lanzado algunas misiones científicas notables. Y de la misma manera que Europa, no se le ven trazas de que vaya a liderar nada en un futuro próximo.

India, con un presupuesto anual de mil millones de euros, parece bastante más decidida. Sus cohetes PSLV se han hecho un hueco en el segmento comercial ligero, y están trabajando con los GSLV, que en la versión actual han dado algunos problemas. Este país opera normalmente decenas de satélites de telecomunicaciones, radiodifusión, meteorología, reconocimiento y observacion. Ha lanzado ya una nave a la órbita lunar.

Brasil tiene un pequeño programa espacial de trescientos millones anuales, sustentado actualmente con tecnología rusa (programa Cruz del Sur, basado en el cohete Angara). Opera un reducido número de satélites de observación.

El programa israelí es fundamentalmente militar y de poca envergadura, con un presupuesto declarado de unos 70 millones de dólares anuales (probablemente sea cuatro o cinco veces más, en asignaciones clasificadas). Sus lanzadores Shavit son una variante del misil balístico Jericó; de ocho lanzamientos, tres han resultado en fallos. Opera los satélites Ofeq y TecSAR, (reconocimiento estratégico), Amos (telecomunicaciones), EROS (observación) y unos pocos de interés científico.

Existen algunos otros países con pequeños programas espaciales, como Irán o Corea del Sur, que en la actualidad no son muy relevantes.

Una situación abierta.

Realmente, en estos momentos, no sabemos por dónde puede tirar la exploración espacial de la especie humana. Las dos grandes potencias tradicionales, Estados Unidos y Rusia, no están temporalmente en condiciones de desempeñar su papel de liderazgo por distintos motivos (falta de visión y exceso de presiones en Estados Unidos, falta de dinero en Rusia). Europa sigue a verlas venir, preocupadísma con que ningún subcomité pise ningún callo a ningún político, lobby o votante. China avanza rápidamente, pero aún le falta un poco para llegar. India y los demás están más retrasados. Las iniciativas privadas son irrelevantes.

La verdad es que, bien pensado, difícilmente se puede hacer una mejor descripción de todos estos países que a través de sus proyectos espaciales. En fin. El caso es que, por el momento, parece que vamos a seguir vagando por nuestros alrededores, sin grandes planes o posibilidades realistas de ir mucho más allá.

Y sin embargo, nuestro destino está allá. La humanidad no puede permitirse, en el medio y largo plazo, permanecer atada a un solo planeta cada vez más superpoblado y con recursos más restringidos. Si no acertamos a encontrar nuestro camino a las estrellas, este mundo empeorará y se arruinará en una larga decadencia sin perspectivas ni ningún futuro en particular; por no mencionar el riesgo obvio de tener todos los huevos en la misma cesta ante cualquier suceso de escala mayor.

Pero ocurrirá, no me cabe duda; dentro de diez, cien o mil años, esta especie nuestra encontrará su camino. Entonces, las generaciones recordarán a nuestros padres y abuelos como aquellos que abrieron las puertas del futuro para toda la humanidad; sería lamentable que nos recordaran a nosotros como la panda de mezquinos, mediocres y pusilánimes que fueron incapaces de estar a la altura.

jueves, 20 de mayo de 2010

Tecnologías supuestamente suprimidas: El motor de agua.

El agua es ya el resultado de una combustión y no se puede usar como combustible otra vez sin aportarle primero más energía de la que proporciona.


Son muchas las personas que piensan que determinadas tecnologías prometedoras han sido suprimidas por diversos poderes políticos o económicos, generalmente con el propósito de proteger sus inversiones o apuestas y –en los extremos ya más absurdos de la ilógica conspiranoica– por motivaciones siniestras de mucho mayor alcance. Desde que un servidor puede recordar, el motor de agua ha sido la más popular de estas tecnologías supuestamente suprimidas en la mitología social contemporánea.

En su forma original y más básica, la leyenda afirma que alguien inventó un motor capaz de funcionar usando agua corriente como combustible y éste fue suprimido por el poder mediante una diversidad de medios, según la imaginación del que lo cuenta: adquiriendo y enterrando la patente, comprando al inventor, matándolo, etcétera. El objetivo de esta supresión sería evidente: proteger a las grandes compañías energéticas y a los estados que tienen o puedan tener detrás, privando así al pueblo sencillo de una fuente de energía casi ilimitada, limpia y muy barata o gratuita por completo. Adquiere así características comunes en los mitos sociales, las leyendas urbanas y las conspiranoias.

Verne, Franco y los cuentistas.

El origen aparente de la leyenda resulta fácil de determinar: se halla en una obra notable de Julio Verne, La Isla Misteriosa, que ya planteaba en 1875 el problema del agotamiento de las energías no renovables. Entonces, uno de los protagonistas –un inteligente inventor llamado Ciro Smith– realiza las siguientes afirmaciones:
«Sí, amigos míos, creo que el agua se usará un día como combustible, que el hidrógeno y el oxígeno que la constituyen, utilizados aislada y simultáneamente, producirán una fuente de calor y de luz inagotable y de una intensidad mucho mayor que la de la hulla. Un día el pañol de los vapores y el ténder de las locomotoras en vez de carbón se cargarán con esos dos gases comprimidos, que arderán en los hornos con un enorme poder calorífico. No hay que temer, pues: mientras esta tierra esté habitada, suministrará elementos para satisfacer las necesidades de sus habitantes, los cuales no carecerán jamás de luz ni de calor, como tampoco de las producciones de los reinos vegetal, mineral y animal. Creo que, cuando estén agotados los yacimientos de hulla, se producirá el calor con agua. El agua es el carbón del porvenir.»
El carácter maravillosamente visionario de muchas de las creaciones de Julio Verne ha conducido a muchas personas a creer a pies juntillas cualquier afirmación que aparezca en las mismas, olvidando que se trata de obras de lo que hoy en día llamaríamos ciencia ficción próxima:  tomar elementos ya existentes en la ciencia y la técnica de tu tiempo y forzarlos en el presente o proyectarlos en el futuro hasta que te queda una historia de lo más estupenda y realista. Otro autor muy conocido de este género es Michael Crichton, entre muchos más.

Sin embargo, a diferencia de lo que se suele creer, Julio Verne no inventó nada. Verne era un escritor capaz con buena cultura científica y muy bien informado de lo que se cocía en su época, pero en sus libros no aparece nada que no se estuvieran planteando ya los científicos de su tiempo aunque fuese como conjetura. Esto le condujo a incontables aciertos y también a algunas –brillantes– meteduras de pata. La más conocida es la del viaje tripulado a la Luna mediante un disparo de cañón, que –además de impráctico– convertiría a los ocupantes en pasta cárnica para hamburguesas debido a la súbita aceleración. Y tiene perfecto sentido, porque cuando Verne escribió De la Tierra a la Luna (1865) aún faltaban casi cuarenta años para que el papi de la astronáutica Konstantin Tsiolkovsky publicara su obra clave La exploración del espacio cósmico por medio de dispositivos a reacción (1903). En cambio acertó plenamente con el lugar del lanzamiento –Florida–, pues en tiempos de Verne los Estados Unidos ya despuntaban como potencia científico-técnica y los matemáticos ya sabían que el lugar idóneo para este tipo de lanzamiento está cerca del ecuador.

Para este otro caso que nos ocupa, Verne se apoyaba en la hidrólisis del agua realizada por Michael Faraday en 1853. No obstante, en los tiempos de La Isla Misteriosa las Leyes de la Termodinámica –aunque ya conocidas– aún no se comprendían en profundidad ni estaban bien extendidas: la primera y segunda leyes acababan de formalizarse y el descubrimiento de la tercera tendría que esperar hasta principios del siglo XX. En 1875 las Leyes de la Termodinámica eran ciencia tan puntera y abstracta como lo que hoy en día se hace en el LHC; tanto que a Verne se le escapaba un poquito, lo que se plasma en varios otros lugares de sus obras.

Más intrigante y oscura es la vía por la que este error de Verne pasa a la mentalidad social colectiva en varios países de modo más o menos simultáneo. Parece –parece– que fue más popular en los países del Eje y sus aliados o simpatizantes, en torno a la Primera y Segunda Guerras Mundiales; entrelazándose con la injusticia nacional percibida de que nuestras patrias no dispusieran de recursos energéticos fácilmente accesibles, a diferencia de nuestros enemigos, los aliados (y de manera notoria, los Estados Unidos, el Reino Unido y la Unión Soviética). Es conocida la tendencia de la mente humana a inventarse –y creerse– fábulas cuando los hechos no concuerdan con sus miedos, prejuicios y deseos; de hecho, este ha sido siempre el principal motivo creador de mitos y religiones.

Así, en este tiempo y lugar surgieron numerosos intentos para lograr combustibles alternativos, extendiéndose desde la gasolina sintética nazi –basada en el proceso Bergius y practicable, pero económicamente ruinosa– hasta fraudes ridículos como la gasolina en polvo de origen vegetal que el estafador Albert von Filek le colocó a Franco. Otro ejemplo paradigmático de esta tendencia fueron los vórtices fluidos de Viktor Schauberger, que llegó a reunirse varias veces con Hitler antes de terminar en un campo de concentración o un hospital psiquiátrico, según fuentes.

Conforme el mundo desarrollado seguía su camino, fue dejando atrás estos sueños de autarquía energética por impracticables o ruinosos (en la foto de la derecha, una planta alemana abandonada de producción de gasolinas sintéticas). Sin embargo, en los países más pobres y menos desarrollados perduraron aún un poco más, apoyándose en el desconocimiento popular de las materias científicas. Así, en fecha tan tardía como 1970, aún tuvimos en España a un personaje llamado Arturo Estévez Varela que alcanzó cierta notoriedad social con exhibiciones de motores de agua más un aditivo secreto. En esta ocasión fue el mismo Franco quien ordenó a la prensa que dejara de darle pábulo, después de consultar al Colegio de Ingenieros Industriales, porque «ya se ha hecho bastante el ridículo».

Pero, inevitablemente, la idea permaneció en la mitología popular como ejemplo paradigmático de tecnología suprimida. Por ello, cuando los conspiranoicos anglosajones de la energía libre y gratuita comenzaron a dejarse oír en España y otros países latinoamericanos, nuestras sociedades estaban preparadas para darles un inmerecido crédito.

Los conspiranoicos de la energía libre y gratuita.

En el mundo anglosajón, la cosa del motor de agua (o con otros combustibles curiosos) fue siempre más propia de inventores particulares fracasados, sin llegar a alcanzar los ámbitos del poder que hemos visto en los entornos continentales. Hay cientos de patentes al respecto: varias oficinas de patentes anglosajonas son conocidas por pantentar todo lo que les presenten. En Estados Unidos, un padre patentó a nombre de su hijo de siete años la manera de balancearse en un columpio; en Australia, un abogado patentó la rueda. Y así, muchas más.

Estos inventores frustrados y quienes apoyan sus obras han venido a constituirse en un sector significativo del pujante movimiento conspiranoico, una industria muy rentable que deja significativos beneficios a una variedad de editoriales y productoras, por no mencionar a ciertos políticos y periodistas. En esta ocasión, el planteamiento del motor de agua se presenta bajo un aspecto un poco más sofisticado (esencialmente: más lioso) de tal modo que se camuflen mejor sus debilidades; y ha quedado incorporado en el apartado de supuestas supresiones de la energía libre y gratuita, una temática conspi habitual.

Esta nueva iteración se olvida ya de Julio Verne y de los Seat 600 con motor de agua para adentrarse en la tecnología de células de combustible acuosas de Stanley A. Meyer, que viene a ser lo mismo pero más rimbombante. Después de que un tribunal lo condenara a devolver 25.000 dólares a dos inversores que se sintieron estafados, y sobre todo tras su muerte súbita por aneurisma cerebral, Meyer se convirtió inevitablemente en un ídolo del sector conspi que aprecia estas cosas como verdadero científico asesinado por las fuerzas del mal.

Todas sus patentes en los Estados Unidos siguen disponibles y accesibles por Internet (5149407, 4936961, 4826581, 4798661, 4613779, 4613304, 4465455 y 4421474 y 4389981). En ellas, lo único que hace es liar por vías cada vez más complicadas un sencillo dispositivo de hidrólisis, que naturalmente consume energía en vez de producirla. Ninguna de ellas explica de qué manera se puede obtener energía en vez de consumirla –más allá de sus propias afirmaciones–, ni mucho menos determina el mecanismo de acción o el balance energético final. Esta ausencia de claridad sobre el mecanismo de acción y el balance energético es característica de las conspis con componente científico, que hemos visto recientemente en las numerosas chaladuras sobre el HAARP. En caso de duda, tú siempre pregunta cómo funciona, cuánta energía entra y cuánta energía final exige el trabajo. Así te mantendrás siempre al calor de las leyes de la Termodinámica. ;-) En la imagen podemos ver uno de los dibujos originales de Meyer, donde el fuel cell water capacitor desempeña la función de cajita mágica para la hidrólisis del agua en hidrógeno y oxígeno; ningún punto de las patentes detalla cómo lograrlo sin consumir más energía de la que se produce.

En general, los defensores de estas supuestas energías libres y gratuitas ignoran un hecho bastante simple: las regiones próximas a la corteza terrestre son ya muy estables, resultado de miles de millones de años de violentísimas reacciones. Debido a esa razón, han quedado en un estado bajo de energía (y si fuera más alto, nos mataría): ya han generado y consumido la mayor parte de la energía que podían generar y consumir con facilidad. Por eso, sus reacciones son ahora lentas y progresivas; también por eso, nos resulta tan difícil encontrar fuentes cercanas de energía concentrada y fácilmente disponible. Los hidrocarburos son un regalo de Mamá Naturaleza, que no se repetirá pronto.

Pero entonces, ¿por qué no puede ser?

La razón fundamental de que el motor de agua no sea practicable es en realidad muy sencilla. Simplemente, el agua ya es el resultado de una combustión, ocurrida durante miles de millones de años, a lo largo de buena parte de la historia del universo. El agua es H2O: o sea, hidrógeno oxidado (quemado con oxígeno). El hidrógeno primordial y el oxígeno estelar se combinaron para formar agua, liberando energía en el proceso: este es el origen del líquido elemento. Al agua, por tanto, no le queda apenas energía química que liberar: se encuentra ya en un estado base muy estable. A todos los efectos prácticos, es una ceniza resultante de la combustión del hidrógeno en presencia de oxígeno a lo largo del tiempo.

Para transformar el agua de nuevo en hidrógeno y oxígeno capaces de liberar energía al combinarse otra vez, primero hay que desensamblarla –hidrolizarla– aportándole la misma energía que cedió más un porcentaje adicional, con objeto de compensar las pérdidas inevitables. Por muchos trucos que intentemos, por muchos pasos que incorporemos, por mucho que compliquemos el proceso, el balance energético final será el mismo: si quieres que el agua libere energía, tienes que aportársela primero, porque la suya ya la perdió cuando se formaba. Lo contrario implicaría una violación radical de la primera y la segunda leyes de la termodinámica, que en este universo nos vemos obligados a respetar: estaríamos ante una máquina del movimiento perpetuo, imposible por esta misma razón.

Obviamente, existe una vía para obtener grandes cantidades de energía del agua, o más bien del hidrógeno que contiene: la fusión nuclear. En este caso la cosa cambia, pues saltamos de procesos químicos a procesos físicos, enormemente más energéticos. Por supuesto, no hay en esto violación alguna de las leyes de la termodinámica, dado que hablamos de reacciones de naturaleza completamente distinta: la energía que el agua perdió al formarse durante la larga historia del universo (lo que le impide servir como combustible convencional) era de naturaleza química, no física (lo que, una vez hidrolizada, permitirá su uso como combustible nuclear cuando la fusión esté lista).

Alternativamente, podría decirse que la energía hidroeléctrica o maremotriz se obtiene del agua, pero evidentemente no estamos hablando de esto. En esta variante, la energía no está en el agua, sino en la energía cinética o potencial de su masa: funcionaría igual con cualquier otra cantidad de materia análoga.

Pero a nivel químico –que es lo que permite funcionar a un motor convencional, no nuclear– el agua no sirve como fuente energética por el simple motivo de que ya la cedió casi toda durante su formación. No le queda energía para suministrarnos. Y por ello el motor de agua, a pesar de lo muy querido que pueda resultar para la mitología popular, simplemente ni pudo, ni puede, ni podrá ser.