domingo, 31 de enero de 2010

jueves, 28 de enero de 2010

Aquí creamos elementos nuevos.

Dubna (Rusia) y Darmstadt (Alemania) se disputan la primacía en la creación de elementos que
probablemente no existan en ningún otro lugar del universo... o casi.




Decíamos en el artículo anterior sobre la materia y la energía que es el número de protones (y neutrones) en el átomo los que definen lo que es cada elemento del universo. Mencionamos también que más allá del número atómico 100 podría hallarse una isla de estabilidad postulada por Glenn Seaborg y otros, donde existirían elementos más o menos perdurables con características diferentes a todo lo conocido. Como era de esperar, desde que tuvimos una teoría atómica nos abalanzamos a descubrir estas sustancias que, en condiciones normales, no existen en ningún otro lugar del universo. Y si no existen en ningún lugar, entonces hay que crearlas.

Para aproximarnos a la isla de estabilidad, hay que ir pasito a pasito, sintetizando elementos cada vez más pesados y diabólicamente inestables, que hay que encontrar átomo a átomo en ciertos aceleradores de partículas. Estas máquinas permiten, esencialmente, unir dos núcleos más ligeros en la esperanza de que el resultado existirá durante el tiempo suficiente para detectarlos por medios directos o indirectos... si es que llega a existir.


El último elemento que se da en la Tierra de manera natural y más o menos estable es el uranio (número atómico: 92). Más allá del uranio están el neptunio (93) y el plutonio (94), que se observan ocasionalmente en la naturaleza en cantidades diminutas, como resultado de procesos vinculados al uranio; la mayor parte, sin embargo, hay que generarla en reactores. Y se acabó. Por encima de ese punto, cualquier nuevo elemento debe ser creado artificialmente. Los reactores nucleares producen habitualmente buenas cantidades de estos dos, y también de americio (95), curio (96), berkelio (97) y californio (98), en cantidades cada vez más pequeñas y con una vida media antes de desintegrarse cada vez más corta; algunos de ellos ocurren en cantidad suficiente y lo bastante estable como para tener aplicaciones industriales o tecnológicas. El californio es también el último de los elementos que detectamos habitualmente en las explosiones de las supernovas, lo que, salvo sorpresas, significa también que es el último que puede surgir en el universo presente, al menos en cantidades significativas.


Después viene el einstenio (99), que aún se puede producir en un reactor nuclear, aunque ya hay que hacerlo de manera deliberada. Y finalmente el fermio (100), que aparece espontáneamente en cantidades mínimas durante las explosiones atómicas; su isótopo más duradero, el fermio-257, tiene una vida media de cien días y medio. Se cree que las supernovas pueden llegar a producir algo de fermio, en cantidades marginales.

Y se acabó. Por encima del número atómico 100, la naturaleza no produce ningún elemento en cantidades significativas, ni tampoco los reactores nucleares o las armas atómicas. Cualquiera de ellos que pudiera haber surgido con el universo se desintegró en otras cosas hace miles de millones de años. No queda en este universo, ni se generan, cantidades mensurables de elementos por encima del 100. Lo cual, naturalmente, no hace otra cosa que ponernos más cachondos. Y cachondas.

Más allá de la naturaleza.


El elemento 101, llamado mendelevio, fue creado artificialmente en abril de 1955 por la Universidad de California en Berkeley usando un diminuto acelerador de partículas. Para ello, dispararon partículas alfa (núcleos de helio, uno de los átomos más ligeros) contra un blanco que contenía algunos átomos de einstenio-253, cuya vida media de veinte días y pico es suficiente para usarlo en esta clase de experimentos. Así obtuvieron algunos átomos sueltos de mendelevio-256, que tarda hora y media en decaer a fermio-256. El equipo norteamericano había demostrado así que es posible crear elementos nuevos, inexistentes en el cosmos. Pronto se generaron varios isótopos de mendelevio más; el más duradero tiene una vida media de 51 días y medio.

El elemento 102, en cambio, se mostró más esquivo. Primero creían haberlo detectado en el Instituto Nobel de Suecia, y después el mismo equipo de la Universidad de California en Berkeley, bombardeando curio con carbono en el acelerador de iones pesados HILAC. Este segundo intento se dio por bueno, aunque en honor a la primera intentona mantuvieron el nombre nobelio. El nobelio tiene una vida media breve, de 58 minutos en su isótopo más estable, lo que dificultaba su localización precisa. A pesar de las dudas, siguieron adelante, descubriendo el elemento 103 el 14 de febrero de 1961; lo llamaron lawrencio, obtenido mediante el bombardeo de californio con boro.

De pronto, cierto día de 1966, aparecieron unos científicos de un oscuro instituto soviético reclamando el descubrimiento del elemento 104. Poco después reclamaban también el 105, y además disputaban como incorrectos los resultados del nobelio y parte de los del lawrencio. En el contexto de la Guerra Fría, algo muy parecido al pánico se extendió entre la comunidad de físicos atómicos occidentales. ¿Quiénes eran estos rusos? ¿De dónde habían salido, y qué se proponían?

Dubna.


Georgi Flyorov, nacido en Rostov del Don en 1913, era un físico nuclear soviético completamente desconocido en Occidente. Fue él quien, en abril de 1942, dirigió una carta a Stalin llamando su atención sobre el sospechoso silencio sobre cuestiones atómicas en la prensa científica de Estados Unidos y el Reino Unido, aliados de la URSS por aquel entonces en la lucha contra el nazifascismo. Esta carta fue la que puso en marcha el programa atómico soviético, por un lado, y las operaciones de espionaje contra el Proyecto Manhattan, por el otro: dos caminos paralelos y separados entre sí. De esta forma, la URSS pudo detonar en 1949 una bomba que era copia de la de Nagasaki, y en 1951 una de diseño totalmente propio.

Miembro de la Academia Soviética de Ciencias, en 1957 se le encargó la creación de un laboratorio especial de física nuclear que se vino a instalar en la localidad de Dubna, unos ciento cincuenta kilómetros al norte de Moscú. Aunque allí había un pueblo desde la Edad Media, llevaba ya algunos años siendo reconvertida en un naukogrado: una ciudad secreta dedicada exclusivamente a la ciencia de alto nivel, con excelente calidad de vida para sus destacados ocupantes. El Instituto Flyorov quedó integrado en una cooperación internacional con países amigos de la URSS, llamado el Instituto Conjunto de Investigación Nuclear (OIYaI), que sigue abierto y trabajando en la actualidad.

El Instituto Conjunto fue dotado de grandes medios técnicos, hasta convertirlo en una institución sin parangón en el mundo: distintos tipos de aceleradores de partículas, un reactor nuclear de diseño especial, y los mejores instrumentos que podía producir la ciencia y la técnica soviéticas. Así, habían logrado crear efectivamente los elementos 104 y 105, observar incorrecciones en la síntesis norteamericana del 103, y recrear correctamente el 102, que actualmente se les atribuye también. Poco después, en 1974, sintetizaban el 106.

La batalla de los transférmicos.

Esto dio lugar a un peculiar conflicto, de aquellos tan característicos durante la Guerra Fría, que se plasmó en la asignación de nombres para estos nuevos elementos. Los norteamericanos trataban de defender su creación del 102 –aunque, ciertamente, era poco sostenible según estas investigaciones soviéticas–. Los soviéticos decían que ni hablar y además, usando la prerrogativa del descubridor, propusieron para el elemento 104 el nombre de kurchatovio; Igor Kurchatov era el padre de la bomba de hidrógeno soviética (además de un físico de extraordinario nivel), lo que cayó fatal en Occidente. Quizás para suavizar un poco la píldora, quisieron bautizar el 105 como nielsbohrium, en honor al gran físico Niels Bohr, un miembro del Proyecto Manhattan que había sido partidario de compartirlo con la URSS.

Los estadounidenses dijeron que nones y propusieron sus propios nombres: rutherfordio para el 104, hahnio para el 105 y seaborgio para el 106, por Ernest Rutherford, Otto Hahn y Glenn Seaborg. Hahn, aunque no era partidario de los nazis, había permanecido en Alemania durante toda la guerra y se sospechaba que tomó parte en el programa atómico del Tercer Reich; este nombre, por tanto, resultaba inaceptable para la URSS. En cuanto a Seaborg, no sólo estaba aún vivo –estos nombres se suelen reservar para científicos ya fallecidos– sino que además era el asesor de Johnson y Nixon en materia atómica.


Por si fuera poco, un competidor inesperado se sumó a la carrera a principio de los años '80: Alemania, ni más ni menos, con su Instituto de Investigación de Iones Pesados sito en Darmstadt. Y no lo hizo de cualquier manera, sino descubriendo seis de una tacada, seis, entre 1981 y 1996: todos los elementos nuevos entre el 107 y 112, utilizando una técnica inspirada en la de Dubna. Y, por supuesto, reclamaron sus propios nombres para los mismos. Tras semejante avalancha alemana, sólo los rusos lograron apuntarse también un éxito con el 114 en 1999.

El escándalo Ninov.

Hubo que esperar hasta el final de la Guerra Fría para que la IUPAC acordara los nombres para los elementos 104 a 111, siendo ya 1997. Las denominaciones definitivas fueron rutherfordio (104), dubnio (105), seaborgio (106), bohrio (107), hassio (108) y meitnerio (109), por Lise Meitner, descubridora de la fisión. Para el 110 eligieron darmstadtio (por la ciudad donde se descubrió) y para el 111, roentgenio, lo cual resultaba difícilmente discutible: Roentgen fue el descubridor de los rayos X y el primer Premio Nobel de Física de la historia (1901).


Todos estos nuevos elementos eran cada vez más difíciles de conseguir y sus vidas medias, cada vez más cortas: la del isótopo estable del roentgenio, el roentgenio-280, es de apenas 3,6 segundos. La del siguiente, para el que se ha propuesto el nombre copernicium pero se sigue usando el sistemático ununbio o simplemente "elemento 112", es de 4 segundos: elementos tremendamente inestables, que se desintegran en otras cosas más corrientes con rapidez.

Entonces, el Laboratorio Nacional de Berkeley anunció la síntesis de los elementos 116 y 118. Sin embargo, ni Dubna, ni los alemanes, ni el propio control interno de Berkeley fue capaz de reproducirlos. Pronto se descubrió que un científico de origen búlgaro llamado Victor Ninov, contratado a gran bombo y platillo por los norteamericanos robándoselo a los alemanes, había falseado los datos debido a la presión para que descubriera más cosas en los Estados Unidos. Berkeley tuvo que despedirlo, retractarse, y aceptar que los rusos de Dubna se apuntaran también el 116 en el año 2000, con vidas medias de milisegundos. Se descubrieron también anomalías en sus colaboraciones para el 111 y 112, pero los resultados globales eran correctos.

Este escándalo y el final de la Guerra Fría produjeron otro efecto singular: los antiguos enemigos de Berkeley y Dubna establecieron proyectos conjuntos para seguir creando elementos nuevos. En todas las ocasiones, tales síntesis se produjeron en Dubna, dotado de equipos extensivos y muy superiores a los disponibles en cualquier otro lugar del mundo. Este equipo conjunto de rusos y norteamericanos crearían el siguiente elemento en 2002: el 118; y luego el llamado ununtrio o "elemento 113"; su isótopo más estable tiene una vida media de apenas medio segundo. Le siguió el 115 en 2004, de nuevo creado por el equipo conjunto. Actualmente se trabaja en el 117 (Dubna), el 119 (Berkeley) y el 120 (Dubna y los alemanes). La Universidad de Jerusalén (Israel) aseguró haber localizado el 122 en una muestra de torio natural, pero no pudieron demostrar esta aseveración tan extraordinaria y ha sido ya descartada.

En busca de la isla mágica de la estabilidad.


Actualmente se buscan de manera particular tres isótopos: el 298114, el 304120 y muy especialmente el 310126 (o, alternativamente, el 322126), que debería encontrarse exactamente en la cima de la isla de la estabilidad postulada por Seaborg. Cualquiera de estos podría ser estable y gozar de propiedades actualmente no disponibles en ningún otro lugar de la Tierra y puede que del universo (a menos que los haya sintetizado alguien más en algún otro lugar). Los dos primeros tienen un número mágico de protones o neutrones, y el 310126 tiene un número doblemente mágico de protones y neutrones, lo que debería otorgarles una elevada perdurabilidad al organizar su núcleo en escudos cerrados.

Al referirnos a elementos tan pesados, hablar de estabilidad es muy relativo.  Por el momento, nos daríamos con un canto en los dientes si hallásemos algún elemento lo bastante perdurable como para hacer algo con él más allá de la investigación en ciencia pura. El tamaño máximo posible para un núcleo atómico tampoco está claro: podría tratarse de cualquiera entre el 137 y el 173, aunque seguramente será muy difícil estabilizar cosas más allá de la primera cifra. Y no podemos predecir con claridad cómo serán estos nuevos elementos, pues no siguen las reglas comunes en la tabla periódica de los elementos (el 118, por ejemplo, debería ser un gas noble y sin embargo es un sólido bajo condiciones estándar). En todo caso, se sigue investigando con gran interés, pues estos trabajos no sólo tienen el potencial de hallar nuevos procesos de gran utilidad aplicada, sino que también nos aportan una perspectiva singular sobre los límites de la materia y de la energía, y de lo que cabe esperar de este universo. Como siempre, debemos saber y sabremos. Y si para ello es preciso crear cosas que no existían antes, nunca se vio que tales minucias fueran capaces de detenernos.

domingo, 24 de enero de 2010

De la materia y de la energía.

Echando un vistazo a la naturaleza íntima de la realidad (I)

Todo lo que hay en este universo se manifiesta a nuestros ojos e instrumentos en dos formas bien conocidas: la materia y la energía. Este hecho simple, que es cierto hasta donde hemos llegado a observar –y a estas alturas hemos llegado a observar muy lejos–, ha dado lugar a numerosas disquisiciones científicas, filosóficas e incluso teológicas a lo largo de la historia. Pero, ¿qué son? ¿Cuál es su naturaleza? ¿Por qué están ahí?


Pese a cierta tendencia que tiende a considerar a la energía en un plano superior al de la corruptible y pecaminosa materia (como si en ete universo hubiera algo superior a cualquier otra cosa), la energía es la más básica y primaria, la menos organizada y más fácil de entender de las dos. Aunque, en realidad, las dos viajan indisolublemente trenzadas por el espacio y el tiempo: en el cosmos presente, no hay energía desvinculada de la materia ni materia desvinculada de la energía (la ecuación más conocida que relaciona la una con la otra es, naturalmente, E = mc2).

Cualquier manual de física elemental describe a la energía como la capacidad de una fuerza para realizar un trabajo. Dicho muy a lo bruto: la característica fundamental de una energía es que hace cosas, o puede hacerlas: mover esto, calentar aquello, aniquilar lo de más allá.

Vemos, pues, que para tener energía hace falta una fuerza primero. Aunque de vez en cuando se postule alguna quinta fuerza más allá del Modelo Estándar, en estos momentos tenemos bien identificadas cuatro fuerzas o interacciones fundamentales: fuerte o cromática, electromagnetismo, débil y gravedad. Cada una de ellas tiene una teoría que la explica, y una partícula asociada que la transporta; excepto la gravedad, donde se ha postulado el gravitón pero todavía no se ha observado. Repasémoslas:

  • Interacción fuerte o cromática, estudiada por la cromodinámica cuántica. Es la más intensa de las cuatro, con muchísima diferencia. Mantiene juntos los quarks para formar protones y neutrones, y los protones y neutrones juntos para formar núcleos atómicos, estructuras esenciales de la materia. La partícula subatómica vinculada a esta fuerza es el gluón.
  • Electromagnetismo, estudiada por la electrodinámica cuántica. Es cien veces más débil que la cromática. Mantiene juntos los núcleos atómicos con sus electrones para formar átomos, y las moléculas entre sí, lo que viene a constituir la materia macroscópica. La partícula mensajera de esta fuerza es el fotón.
  • Interacción débil, estudiada por el modelo electrodébil. Es cien mil millones de veces más tenue que el electromagnetismo, y diez billones de veces menor que la cromática. Es la causante inmediata de la radiactividad. Sus partículas mediadoras son los bosones W y Z.
  • Gravedad, estudiada por la relatividad general. Aunque no lo parezca cuando nos caemos, o cuando vemos planetas orbitando alrededor de sus soles o galaxias en sus supercúmulos, es inconcebiblemente débil: cuatrillones de veces más tenue que las anteriores. Su partícula mensajera hipotética, el gravitón, resulta complicadísima de encontrar debido a su baja interacción con el resto de la realidad. Se requerirán, por tanto, aceleradores de partículas muy potentes –más que el LHC– para detectarla sin duda de ninguna clase.

Las cuatro fuerzas fundamentales tienen características comunes, y la más notoria de ellas es que las cuatro obedecen a la teoría de campos (clásica y cuántica). Estas similitudes nos hacen sospechar que todas ellas forman parte de una realidad que las engloba y explica conjuntamente; por eso, los físicos de altos vuelos andan detrás de una teoría del campo unificado que explicaría una gran parte de la realidad y abriría el paso a la teoría del todo. En estos momentos, la teoría electrodébil unifica ya en gran medida la interacción débil con el electromagnetismo.

¿Y la materia? La materia podría definirse como cualquier cosa que tiene masa y ocupa un volumen en el espacio; aunque algunas de las partículas transportadoras de fuerzas, como los bosones W y Z, también poseen estas propiedades. La materia bariónica –esa que constituye todo lo que vemos y tocamos, incluyéndonos a ti y a mí– está compuesta por quarks y leptones (el leptón más conocido es el electrón). La inmensa mayoría, sólo por cuatro de ellos: el quark arriba, el quark abajo, el electrón y el neutrino.

Aunque las características de la masa son bien conocidas, su naturaleza profunda aún permanece oculta. El bosón de Higgs, comúnmente conocido como la partícula de Dios, podría haber sido clave en el surgimiento de la misma mediante el mecanismo de Higgs. El mecanismo de Higgs, que puede quedar a nuestro alcance gracias al LHC e incluso se puede aproximar en el Tevatrón, explicaría la manera en que la energía se convirtió en materia y puede dar un paso de gigante hacia la comprensión de cómo empezó todo.

Sabemos que la materia bariónica (corriente) se organiza en átomos. Dependiendo del número de protones que haya en el núcleo de cada átomo, estaremos ante un elemento u otro: esto es el número protónico, más conocido como número atómico. Un átomo cuyo núcleo alberga un solo protón, por ejemplo, es hidrógeno. Si tiene dos, es helio. Si tiene tres, litio. Si tiene seis, carbono. Si tiene ocho, oxígeno. Si contiene 79 será oro, 92 y tendremos uranio, 94 y será ya plutonio. Y así con todos. La tabla periódica de los elementos de Mendeleev nos lo organiza de una manera muy visual:




No todos los núcleos atómicos son estables. De hecho, sólo existe un estrecho rango de combinaciones estables entre protones y neutrones. En realidad, cualquier núcleo con más de 83 protones (es decir, el bismuto) es esencialmente inestable y tiende a dividirse rápidamente en otras cosas, con las notables excepciones del torio y el uranio, que aunque no son estables del todo aguantan bastante tiempo (tanto, que aún los podemos encontrar en las minas). Glenn Seaborg postuló la posible existencia de una isla de estabilidad más allá del número atómico 100, lo que permitiría crear en un reactor nuclear o un acelerador de partículas átomos más o menos firmes de elementos excepcionales que actualmente no están presentes en el universo. De momento, esto no se ha conseguido.

Es posible convertir unos elementos en otros en el laboratorio: el sueño del viejo alquimista hecho realidad. Por ejemplo, es relativamente fácil transmutar mercurio en oro irradiándolo con rayos gamma. Pero si estás pensando en montarte un negociete, me temo que no es posible en el momento actual: este oro es enormemente caro, mucho más que el natural, debido al coste de la energía necesaria. La plata, el paladio, el rodio y el rutenio se extraen habitualmente del combustible consumido en los reactores nucleares (originalmente, uranio) aunque, de nuevo, no acaba de ser económico.

Una propiedad intrigante de la materia es la dualidad onda-partícula que estudia (entre otras muchas cosas) la mecánica cuántica (ver este curiosísimo video). Algunos piensan que esto debe ser alguna clase de brujería, pero se verifica constantemente en el laboratorio: la materia puede comportarse a la vez como si fuera materia y energía, y se decanta por ser una cosa u otra según la interacción a que se vea sometida. Esta característica tan peculiar y contraria al sentido común nos ha abierto unas puertas extraordinarias para comprender mejor la naturaleza íntima de la realidad.







Próximamente: Del calor, el tiempo, la entropía y la fluctuación.

sábado, 23 de enero de 2010

El HAARP y la bomba del arco iris (adenda)

Algunas precisiones adicionales sobre el artículo anterior:



 Una de las instalaciones EISCAT, cerca de un fiordo, en los Países Nórdicos. EISCAT emite con 1.000 MW combinados de potencia ERP, mientras que HAARP lo hace con 3,6.

El curioso éxito del artículo anterior (más de 20.000 visitas en menos de 3 días y una buenísima participación) me provoca para hacer algunas precisiones importantes tanto sobre el HAARP y las instalaciones del tipo del HAARP como sobre las armas de pulso electromagnético. Muchas gracias a quienes habéis colaborado a difundirlo y habéis participado en él.  :-)

El HAARP y otras instalaciones del tipo del HAARP
  • En contra de lo que dicen, el HAARP no es una instalación secreta. En realidad se trata de una instalación experimental cuyo concepto es de origen universitario, financiada por las Fuerzas Armadas de los Estados Unidos debido al enorme interés de los estudios de excitación ionosférica para los militares. Pero lo que se hace allí no es ningún secreto. Sus resultados se publican en la prensa científica, tienen científicos extranjeros trabajando en la instalación, en verano organizan cursos de verano y workshops para las universidades de medio mundo, y hasta tienen jornadas de puertas abiertas para el público.
  • El HAARP fue durante 14 años una instalación experimental, que sólo alcanzó su potencia máxima de emisión en el año 2007. De las principales que existen, es la menos potente. EISCAT (países nórdicos) puede calentar la ionosfera con una potencia combinada de 1.000 MW (combinados). Sura (Rusia) lo hace con 190 MW. El HIPAS de la Universidad de California, en Fairbansk, con 70 MW. HAARP, sólo con 3,6 MW. Cualquier fragata provista de radar AEGIS, como las F-100 de la Marina Española, podría hacer la misma función con 4 MW sostenidos y hasta 6 de pico. El famoso radar pájaro carpintero de tiempos soviéticos emitía hacia la ionosfera con hasta 10 MW en frecuencia de 7 a 19 MHz (HAARP opera entre 2,8 y 10 MHz).
  • Estas instalaciones no se pueden utilizar como arma, al igual que el radar de nuestras fragatas o del pájaro carpintero no son armas en sí mismos. Se trata de equipos de investigación, cuyos resultados tienen un doble uso militar en el estudio de armas especiales como la de EMP o la de oscurecimiento, así como en el comportamiento de los radares OTH y de seguimiento misilístico y satelitario. 
  • Desde luego, no existe manera ninguna, y además les falta energía por seis o siete órdenes de magnitud, para que las instalaciones del tipo del HAARP pudieran inducir terremotos u otros grandes fenómenos geológicos. De hecho, tal cosa no es posible si no se dan primero las condiciones para que se produzca un movimiento de estas características (tectónica de placas, vulcanismo...) y en ese caso, se genera por sí mismo.
  • Tampoco es evidente por sí mismo de qué manera podrían modificar el clima a gran escala, a pesar del gol que le colaron a la Unión Europea por incomparecencia del oponente (gracias, Alfredo).
  • Resumiendo: las instalaciones del tipo del HAARP no son más que un radar de un tipo particular y un campo de antenas para detectar los efectos de sus emisiones sobre la ionosfera. Quien piense que esto puede constituir un arma geológica, climática, psíquica o demás lindezas, entonces debería estar aterrorizado ante nuestras F-100. :-D


Campo de antenas en la instalación de Sura (óblast de Nizhny Nóvgorod, Rusia) con 190 MW ERP de potencia de emisión (53 veces más que HAARP)..

Adicionalmente: las luces del tipo de un "arco iris" que se pueden ver en muchos terremotos antes, durante y después del mismo son frecuentes y están documentadas desde mucho antes que existiera el HAARP, las armas nucleares o cualquier otro medio para generarlas arificialmente. Aunque en el pasado se consideraban una especie de fuego de San Telmo vinculado a los movimientos sísmicos, en la actualidad sabemos que el fenómeno es bastante más complejo y aún no está bien explicado en su totalidad. Es posible que obedezcan a varias causas, desde la ignición lenta de gases subterráneos hasta piezoelectricidad por rozamiento entre cuarzitas, pasando por explicaciones más complejas como estados de ionización de rocas que actúan como dieléctricos en el transcurso de un seísmo. Es un tema que se sigue investigando.

Por supuesto, nada de todo esto convencerá a los conspiranoicos, que por lo visto ya me van incluyendo por ahí como parte de la Gran Conspiración del Nuevo Orden Mundial. Me da lo mismo. Lo que espero es que abra algunos ojos de gente racional, que quizá encuentren más interesante preguntarse por conspiraciones verdaderas como esta.

Sobre la bomba del arco iris.


  • El Dr. Lowell Wood, citado extensamente en el artículo anterior, es un científico polémico. Para empezar se trata de un halcón, un señor muy de derechas y muy belicista, partidario de la "acción directa" y siempre deseoso de hablar sobre las amenazas contra América. Fue discípulo y pertenece a la escuela de Edward Teller, prácticamente el único de los grandes científicos nucleares que no se sumó al pacifismo de los más notables, como Albert Einstein o Leo Szilard. Pero eso no quiere decir que diga tonterías: la posibilidad de realizar un ataque EMP a gran escala es real y ha sido extensamente documentada en la literatura científica. Elegí sus declaraciones porque son fáciles de entender para el público generalista (por ejemplo, los miembros del Congreso y Senado de los EEUU a quienes se dirigía). Precisamente por su postura política, estaba dentro del conglomerado científico nuclear militar como pocos (no pones en sitios así a un tipo partidario de la paz y el buen rollo mundial). Wood sólo aporta una voz comprensible por el vulgo a algo que es conocimiento generalizado entre científicos y militares de altos vuelos con lenguaje mucho más técnico y frecuentemente oscuro.
  • El alcance exacto de un ataque de pulso electromagnético y de las medidas que se puedan haber tomado para protegerse es, obviamente, confidencial. Sin embargo, es un hecho notorio que las grandes instalaciones civiles y los artículos electrónicos de consumo no están protegidos específicamente contra EMP. En ocasiones ocurre de manera casual (equipos blindados electromagnéticamente por sus propias necesidades, seccionadores que por pura chamba sí reaccionarían ante el componente E1 del pulso, etcétera), pero la deslocalización de la producción y la optimización de costes hace que sean relativamente raros. Existen pocas dudas sobre la capacidad de un ataque EMP para dislocar a gran escala una sociedad tecnificada, particularmente cuando ésta utiliza extensivamente componentes de alta integración en sus sistemas críticos: dicho muy a lo bruto, un componente del tamaño del puño tiende a soportar corrientes mayores y durante más tiempo antes de quemarse que un circuito microelectrónico.
  • En contra de la imagen de "aviones y helicópteros cayendo del cielo", curiosamente, las aeronaves resultarían poco afectadas de manera directa por un ataque EMP. Una aeronave actúa un poco como "un pájaro posado sobre el cable de alta tensión", y no cabe esperar que el pulso les cause daños críticos. Sin embargo, los sistemas de navegación y control de tráfico aéreo con base en tierra resultarían con toda probablidad gravemente desarticulados, lo que les obligaría a buscarse la vida por sus propios medios hasta hallar un lugar seguro donde posarse.
  • No todos los equipos resultarían afectados por igual, debido a una multitud de razones. Sin embargo, se desprende claramente de las pruebas Starfish Prime (EEUU) y K-3 (URSS) que el EMP tiende a dañar severamente infrraestructuras esenciales para las sociedades desarrolladas, y eso que de aquella forma primitiva rara vez se superaron los 5.000 voltios/metro. La clase de blindajes y protecciones precisos para asegurar la supervivencia del equipo bajo un pulso en el rango de 20.000 a 50.000 voltios/metro son muy imprácticos (y frecuentemente costosos) para un uso comercial normal.
  • La existencia de una preionización degrada pero no elimina los pulsos subsiguientes. Según el Dr. Michael Bernardin (1999), diseñador de armas termonucleares para el Laboratorio Nacional Los Alamos y experto en EMP, la existencia de un pulso previo que ionice el aire reducirá los siguientes a rangos entre 10.000 y 30.000 voltios/metro, lo que daría un respiro a los equipos protegidos pero destruiría igualmente los no protegidos o deficientemente protegidos.
  • Convencionalmente, el límite teórico máximo del pulso EMP se establece entre 60.000 y 65.000 voltios/metro. A partir de este punto, se produce un fenómeno de saturación que impide potencias mayores (Seiler, 1975), con lo que las protecciones militares se pueden diseñar teniendo en cuenta esta limitación. Sin embargo, rusos y chinos llevan algún tiempo hablando sobre "armas de súper-EMP" que podrían provocar pulsos en el rango de los 200.000 voltios/metro. Queda al criterio del lector determinar si tales armas "sobre 65.000" son posibles o sólo propaganda, o una mezcla de ambas cosas.

jueves, 21 de enero de 2010

El HAARP y la bomba del arco iris: cómo acabar con la civilización moderna en menos de un segundo.

Existe al menos una manera de terminar con la sociedad que conocemos
y enviarnos de vuelta al siglo XIX. Sí, el HAARP tiene algo que ver, pero no lo que muchos creen.


Lee también la adenda a este artículo, con detalles y precisiones importantes (23 de enero).




El 9 de julio de 1962, los Estados Unidos realizaban una prueba nuclear en el espacio exterior con el nombre en clave Starfish Prime: hicieron estallar una carga termonuclear de 1,44 megatones propulsada mediante un cohete Thor a 400 km sobre el Océano Pacífico. Por aquellos tiempos ya se sabía que las explosiones atómicas a gran altitud no pueden causar daños directos en tierra, pero presentan unas propiedades especiales que fueron un secreto absoluto durante más de treinta años, hasta el extremo de convertirse en un arma clave para la guerra nuclear sin que el público tuviera ningún conocimiento de ello. Los físicos sí que se lo imaginaban aunque, naturalmente, no dispusieran de los medios para realizar el experimento, que caía dentro de las atribuciones exclusivas de sus compañeros al servicio de las fuerzas armadas. Aunque a partir de 1981 se publicaron numerosos artículos en Science y otras revistas científicas revisadas por pares, fue sólo tras el final de la Guerra Fría –cuando sus posibilidades eran ya un secreto a voces en el mundo académico– que se empezó a hablar públicamente de la cuestión.
“Eran los daños causados por el EMP, tanto como los debidos a la explosión, el fuego y la radiactividad, lo que ensombrecía todos los estudios detallados sobre la posibilidad de recuperarse después de una guerra nuclear. Sin disponer de esencialmente nada eléctrico o electrónico, incluso en remotas áreas rurales, parecía sorprendentemente difícil que América pudiese recuperarse. La América posterior al ataque, en todos estos estudios, quedaba anclada a principios del siglo XX hasta que pudieran adquirirse en el extranjero equipos eléctricos y componentes electrónicos. Por razones obvias, todo el tema EMP era alto secreto y los seguimientos del Congreso se efectuaban a puerta cerrada. De hecho, esta es la primera sesión de seguimiento a puertas abiertas que recuerdo”
–Dr. Lowell Wood, director de proyectos avanzados en los Laboratorios Nacionales Lawrence Livermore,
en audiencia ante el Congreso de los Estados Unidos, el 7 de octubre de 1999.
No se lo dijeron a nadie, pero Starfish Prime modificó el campo magnético de la Tierra –específicamente, el cinturón interior de Van Allen– y creó un cinturón de radiación a su alrededor que dañó tres satélites. Durante muchos años, hubo que construir los satélites artificales con mayor blindaje debido a este hecho. De manera más notoria, ocurrieron cosas extrañas en las Islas Hawaii, situadas a casi mil quinientos kilómetros de distancia: se fundieron misteriosamente trescientas farolas del alumbrado urbano, se dispararon cientos de alarmas contra robo e incendio aunque no hubiera llegado ni la más mínima vibración, y el enlace interinsular de microondas de una compañía telefónica se quemó. Estas averías fueron reparadas rápidamente, sin dar ninguna explicación.

La Unión Soviética protestó, como era de esperar, aunque sólo uno de sus satélites había resultado afectado marginalmente. Lo que no dijeron los rusos es que ellos tenían ya preparada sus propias pruebas para apenas tres meses después, relacionadas con el estudio de la Defensa Antibalística de Moscú: la serie K, que se hizo estallar en Kazajistán entre octubre y noviembre de 1962, con cinco cargas de hasta 300 kilotones. La tercera prueba de la serie, denominada poco imaginativamente K-3, detonó el 22 de octubre a 290 kilómetros de altitud, no muy lejos de la vertical de Jezkazgan, mientras el resto del mundo andaba ocupado con la Crisis de los Misiles de Cuba. Los científicos soviéticos monitorizaban muy discretamente una línea telefónica aérea de 570 km para medir los efectos de aquella energía secreta que parecía hacer cosas a los sistemas eléctricos a distancias enormes; para ello, la habían dividido en varios sectores de 70 u 80 km., instrumentados independientemente.

Se puede imaginar su estupor cuando los 570 km quedaron fritos con corrientes de 1.500 a 3.400 amperios, con todos sus fusibles y disyuntores a gas, y con ellos toda la red de líneas secundarias. No sólo eso: también se incendió violentamente la central eléctrica de Karaganda, mientras 1.500 km de cables eléctricos subterráneos entre Astana y Almaty quedaban fuera de servicio, además de una cantidad incontable de daños menores. De nuevo, aquella energía secreta invisible e imperceptible había demostrado su capacidad de dañar gravemente la infraestructura civil y militar a distancias enormes mediante la sobrecarga masiva de los sistemas eléctricos y electrónicos radicalmente indispensables para cualquier forma de sociedad tecnificada.

Al año siguiente, los Estados Unidos y la Unión Soviética firmaron el Tratado de Limitación Parcial de las Pruebas Nucleares, prohibiendo todos los ensayos excepto los subterráneos, que después suscribiríamos hasta 123 países. La razón fundamental de este tratado fue reducir la cantidad de lluvia radiactiva que estaba ya contaminando toda la Tierra debido a las 331 pruebas atmosféricas norteamericanas, las 200 soviéticas y las decenas de Francia, el Reino Unido y China. Y eso estuvo bien. Aunque también hubo otra razón menos confesable: mantener esta fuerza secreta en la oscuridad, lejos del alcance de cualquier futura potencia nuclear.


Pero, ¿de qué se trataba? ¿Qué clase de fuerza extraordinaria es esta que puede destruir el sustrato más básico de la civilización tecnológica contemporánea a lo largo y ancho de todo un continente, después de una explosión nuclear en el espacio exterior que ni siquiera llega a verse y mucho menos notarse desde tierra? Porque este arma sólo deja como prueba de su presencia unas luces multicolores bellísimas, muy altas en el cielo, que son en realidad auroras boreales: las luces del fin del mundo. Por eso la llaman la bomba del arco iris.

El pulso electromagnético de gran altitud (HEMP).

Cuando se produce un pico súbito de energía electromagnética, durante un periodo muy corto de tiempo, decimos que se trata de un pulso electromagnético. Podríamos afirmar que, por ejemplo, un rayo o un relámpago causan pulsos electromagnéticos naturales.

Ya en 1945, durante las primeras pruebas nucleares en Nevada, se blindaron por partida doble los equipos electrónicos porque Enrico Fermi se esperaba alguna clase de pulso de estas características generado por aquellas bombas atómicas primitivas. A pesar de este blindaje, numerosos registros resultaron dañados o destruidos. Lo mismo les ocurrió a los soviéticos y los británicos, que llamaban a este efecto radioflash.

Lo que ocurre es que, en una bomba atómica que estalla cerca del suelo, el pulso electromagnético es pequeño, tiene poco alcance y en general queda dentro del área de destrucción térmica y cinética ocasionada por el arma, con lo que no se detecta a primera vista. Pero en un explosivo atómico que detona fuera de la atmósfera terrestre, en el espacio exterior, este efecto es muy distinto y resulta amplificado a gran escala por el propio campo magnético natural terrestre. ¿Cómo es esto posible?


Buena parte de la energía de una carga atómica se libera en forma de rayos gamma instantáneos. Los rayos gamma no son otra cosa que una forma de energía electromagnética de alta frecuencia; esto es, fotones como los que, a frecuencias menores, componen la luz, las ondas de radio o los rayos X. Su emisión es característica en los procesos que afectan al núcleo de los átomos o las partículas subatómicas que los forman. En una explosión nuclear, por tanto, se producen masivamente.

Dentro de la atmósfera terrestre, los rayos gamma resultan absorbidos rápidamente por los átomos del aire, produciendo calor; parte de la devastadora energía termocinética que caracteriza a las armas atómicas se debe precisamente a esta razón. Pero fuera de la atmósfera terrestre, esta absorción no se produce, porque no hay aire ni nada digno de mención que se cruce en su camino: a efectos macroscópicos, viajan por el vacío. Y siguen haciéndolo a la velocidad de la luz, hasta volverse imperceptibles en la radiación de fondo. Algunos de los objetos más lejanos que conocemos son los brotes de rayos gamma, en el espacio profundo, precisamente porque esta radiación puede desplazarse sin muchas molestias a lo largo y ancho de todo el universo.

Sin embargo, en una detonación próxima a la Tierra, la parte de esta radiación gamma que enfoca hacia el planeta viaja a la velocidad de la luz hasta alcanzar las capas exteriores de la atmósfera. Si se ha producido lo bastante cerca (típicamente, entre cien y mil kilómetros), esta esfera de radiación gamma en expansión no habrá llegado a disiparse mucho y billones de estos fotones de alta frecuencia chocan con los átomos del aire, a entre 20 y 40 km de altitud, cubriendo la extensión de un continente e incluso más. Entonces, se producen dos efectos curiosos.

El primero es que los átomos de la atmósfera resultan excitados y se ponen a liberar gran cantidad de electrones libres de alta energía, por efecto Compton. A continuación, estos electrones resultan atrapados por las líneas magnéticas del campo terrestre y se ponen a girar en espiral en torno a las mismas. El resultado es una especie de "dinamo" gigantesca, del tamaño del planeta, con un "bobinado" (los electrones libres capturados) que gira a la velocidad de la luz.

No giran mucho tiempo, pero da igual. Como consecuencia, se produce un inmenso pulso electromagnético que carga de grandes cantidades de electricidad el aire circundante y la tierra que está a sus pies. Estas cargas eléctricas ionizan intensamente la atmósfera, causando las bellísimas auroras boreales que dan nombre a la bomba del arco iris, y a continuación se abalanzan sobre todo lo que esté a su alcance con un potencial de decenas e incluso cientos de miles de voltios/metro. Especialmente, sobre los sistemas eléctricos y electrónicos.

Típicamente, el pulso así generado tiene tres componentes, denominados –de manera igualmente poco creativa– E1, E2 y E3. Ninguno de ellos tiene la capacidad de dañar de manera significativa a la materia corriente o a las personas. El E3 es un pulso muy lento, con decenas a cientos de segundos de duración, ocasionando un efecto parecido al de una tormentas geomagnética muy severa; tiende a deteriorar o dañar las grandes líneas eléctricas y sus transformadores. El E2 es muy parecido al ocasionado por el relámpago, y resulta fácilmente neutralizado por los pararrayos y otras protecciones similares contra embalamientos energéticos. El E1, en cambio, es brutalmente rápido, casi instantáneo, y transporta grandes cantidades de energía electromagnética; por ello, es capaz de superar las protecciones corrientes contra rayos y otras sobrecargas, induciendo corrientes enormes, miles de amperios, en los circuitos eléctricos y electrónicos que quedan a su alcance: miles de kilómetros de alcance.


El resultado es sencillo: los circuitos, simplemente, se fríen de modo instantáneo por todo el continente. Esto sucede sobre todo en aquellos que están conectados a antenas (pues una antena capta tanta energía electromagnética del aire como puede) y a líneas que actúen de antena (por ejemplo, los propios cables de la red eléctrica). Pero se ha documentado también muchas veces en circuitos apagados y desconectados, pues el pulso es lo bastante intenso para inducir corriente en su interior.

Los microchips de alta integración en los que se basa toda nuestra tecnología presente, desde las grandes instalaciones industriales y energéticas hasta los aparatejos que nos compramos continuamente, son especialmente frágiles ante el componente E1 del pulso electromagnético, que quema con facilidad las uniones P-N por embalamiento térmico, tanto más cuanto más pequeños sean sus componentes. La subsiguiente dislocación de los sistemas SCADA, los controladores PLC y otros elementos clave de los sistemas que garantizan los servicios de la civilización actual puede poner fácilmente a una sociedad contemporánea de rodillas durante las primeras fracciones de segundo de un ataque así, incluso mucho antes de que empiece la guerra de verdad... en caso de que haga falta después de algo así.

Se ha documentado que esta clase de circuitos pueden quedar dislocados con pulsos de 1.000 voltios/metro y la mayoría de ellos resultan destruidos por debajo de 4.000 voltios/metro. Un arma nuclear detonando en el espacio para generar pulsos electromagnéticos puede barrer fácilmente un continente entero con un potencial de entre 6.000 y 50.000 voltios/metro, incluso con potencias explosivas muy bajas, por debajo de 10 kilotones, menos que la primitiva bomba de Hiroshima. Aunque la documentación pública al respecto es ciertamente críptica, parece como si el componente E1 fuese en gran medida independiente de la energía total liberada por el arma (a diferencia del E3, que es directamente proporcional).


Debido a la distribución característica de las lineas del campo magnético terrestre, y dado que la generación del pulso es totalmente dependiente de las mismas, su intensidad está relacionada con la latitud. El pulso tiende a ser débil cerca del ecuador e intenso en las latitudes intermedias donde se hallan Europa, Estados Unidos, China, Japón y las áreas más habitables de Canadá y Rusia. Su impacto sería mucho más notorio en sociedades altamente urbanas e industrializadas y menor en las zonas agrícolas subdesarrolladas o en vías de desarrollo. Las ciudades, que dependen de una infinidad de servicios garantizados por estas tecnologías y son prácticamente inhabitables en ausencia de los mismos, sufrirían de manera particular. Toda gran urbe depende de sus suministros y su pujanza económica; la capacidad del pulso electromagnético inducido para desarticular los suministros y suprimir la actividad económica les resultaría letal.

Esto último nos hace observar un hecho singular: las armas de pulso electromagnético podrían ser una opción extraordinariamente interesante para países que se sientan en condiciones de inferioridad tecnológica o industrial respecto a un adversario. En un intercambio de bombas del arco iris, el bando más tecnificado e industrializado sufriría daños y dislocaciones de sus infraestructuras esenciales mucho mayor que el bando menos dependiente de la tecnología avanzada. Si las armas nucleares tienen en general una capacidad igualadora importante, las de pulso electromagnético llevan esta capacidad al extremo. Hipotéticamente, una nación agrícola atrasada y anclada a principios del siglo XIX no sufriría ningún daño por un ataque de estas características, mientras que una nación sofisticada, urbanita y avanzada sufriría pérdidas inmensas y correría grave riesgo de aniquilación.

Efectos del HEMP.
“Los automóviles modernos dependen de los semiconductores y los microprocesadores; la posibilidad de que sufran daños catastróficos es, por tanto, extrema. Ninguno de los sistemas militares desprotegidos que hemos sometido a pruebas soportaba más de 10.000 voltios por metro [...] Las tormentas solares, de potencia muy inferior a esta distancia, han provocado cortes de electricidad muy severos. Existen múltiples razones para creer que las partes de nuestros sistemas de comunicaciones basadas en semiconductores, es decir su práctica totalidad, serían extremadamente vulnerables a un ataque EMP. Es razonable afirmar que muchos, si no todos los sistemas informáticos modernos expuestos a campos EMP de 50.000 voltios por metro, desde los portátiles hasta los grandes sistemas, dejarían de funcionar como mínimo. Y la mayoría de ellos se quemarían. Cualquier arma nuclear de cualquier tipo [generará EMP si se detona a la altitud adecuada]”
–Dr. Lowell Wood, op.cit.

Durante un intenso ataque de pulso electromagnético de gran altitud (HEMP) un ciudadano corriente sólo notaría al principio que se ha ido la luz. Su sorpresa aumentaría al mirar su reloj (digital) de pulsera, querer usar el teléfono, encender su portátil o descubrir que al menos una parte de los coches y camiones han dejado de funcionar repentinamente y están formando grandes atascos: nada parece estar operativo. En muchas ciudades, que dependen de bombas para el correcto funcionamiento de la red de aguas potables, la presión de los grifos comenzaría a descender (y en otros puntos aumentar, hasta el extremo de reventar las tuberías). El personal de mantenimiento o emergencias que acudiera a reparar las averías e incendios descubriría que sus propios instrumentos están dañados y al menos una parte de sus vehículos inutilizados.


Así reducido ya al estado de un campesino del siglo XIX sin saberlo, es posible que nuestro amigo o amiga pasara sus primeras horas esperando a ver si vuelve la corriente, leyendo a la luz de las velas, jugando con los niños o bajando al bar (donde no funciona ni la cafetera, ni la cocina) para echar la partida sin luz. En este momento, su vida sería aún parecida a quienes experimentaron algún gran apagón como este, este o este otro. Quienes trabajen o estudien lejos de sus casas tendrían muchos problemas para regresar, y es probable que debieran hacerlo a pie.

Puede que su nerviosismo comenzara a aumentar a la mañana siguiente, al descubrir que todo sigue sin funcionar, que los alimentos del refrigerador comienzan a estropearse y que los cajeros automáticos continúan muertos. Trata de conseguir una radio a pilas, se dirige a la comisaría más próxima o a la junta de distrito a preguntar. Nadie sabe gran cosa. Corre el rumor de que ha habido una guerra. Los supermercados y la mayoría de comercios, desprovistos de cajas registradoras, suministros diarios y controles de stock y personal están en su mayoría cerrados a cal y canto; sólo quedan abiertos algunos pequeños comerciantes, vendiendo el fondo de almacén y sacando las cuentas con lápiz y papel. Se pasa por el trabajo, donde le dicen que no hay nada que hacer hasta que vuelva la luz. Los niños siguen yendo al colegio (si viven cerca), pues para dar clase sólo se precisa tiza y pizarra, pero los profesores andan un poco confundidos.

Cuando pasa por delante de un hospital, se encuentra con largas colas en las puertas de urgencias. Aparentemente, tienen problemas para atender a los enfermos, y no digamos ya cuando se precisa una intervención quirúrgica. Oye decir que se les están agotando los medicamentos más utilizados. Un poco asustado, busca una farmacia abierta para adquirir los fármacos que usa la familia. No se los quieren vender sin receta, y de todas formas algunos ya no quedan. Por todas partes hay vehículos inútiles empujados malamente sobre las aceras y arcenes. Gracias a eso pueden circular ahora unos pocos trastos viejos, anteriores a la era de las centralitas digitales y el encendido electrónico. Pasa un arcaico Land Rover de la Guardia Civil, pidiendo por megafonía a viandantes y vecinos que permanezcan en sus casas siguiendo instrucciones de la Delegación del Gobierno.


Nuestro ciudadano se asusta y decide regresar al hogar. Cuando pasa por cerca de la estación del tren, observa que allí tienen luz eléctrica. Al asomarse, descubre que han conectado una locomotora diésel-eléctrica del año de la tos, a modo de generador. Las modernas máquinas computerizadas para los AVEs y Alaris y demás redes de velocidad alta, en cambio, parecen estar inutilizadas.

En unos pocos días, a nuestro ciudadano ya no le queda comida, ni medicamentos, y el agua potable es de dudosa salubridad. La electricidad sigue sin regresar, pues las fábricas que debían construir los repuestos para hacer millones de reparaciones a gran escala también están destruidas. Se habla de que van a evacuar a la gente al campo. Pero, ¿en qué campos van a meter a los millones de habitantes de las ciudades? Desde la terraza, ve cómo se van formando las primeras colas de refugiados. Sólo entonces comprende que su vida y la de los suyos ha cambiado para siempre, propulsados a un mundo antiguo donde, realmente, ya no sabe cómo sobrevivir.
 Esto no son hipótesis. Este es el tipo de daño que vemos en los transformadores durante las tormentas geomagnéticas. Una tormenta geomagnética es una variante muy suave, muy sutil, del llamado componente lento del EMP [E3].


Así que cuando estos transformadores quedan sometidos al [E3], básicamente se queman, no debido al propio EMP sino a la interación del EMP con la operación normal del sistema eléctrico. Los transformadores se queman y cuando se queman así, señor, ahí se quedan y no se pueden reparar. Deben reemplazarse, como usted apuntó, desde fuentes extranjeras. Los Estados Unidos, como parte de su ventaja competitiva, ya no producen grandes transformadores eléctricos en ningún lugar. Toda la producción está deslocalizada en el exterior.


Y cuando quiere usted uno nuevo, lo pide, y entonces hay que fabricarlo y entregarlo. No se almacenan. No hay inventario. Se fabrica, se embarca y se entrega por medios muy lentos y complejos porque son objetos muy grandes y masivos. Vienen despacio. El retraso típico desde que ordena usted uno hasta que lo tiene en servicio es de uno a dos años, y eso es si todo sale estupendamente [y tiene usted dinero para pagarlo.]
 –Dr. Lowell Wood, en otra comparecencia ante el Senado de los EEUU, 2005.

Uso militar del HEMP: destruyendo la civilización a continentes.
“Los soviéticos planificaron un ataque EMP muy extenso contra los Estados Unidos y otros objetivos [...] Un ataque así causaría billones [europeos] de dólares en daños infraestructurales [...] A finales de la Guerra Fría [...] sólo la Unión Soviética tenía la capacidad de montar ataques EMP contra los Estados Unidos, y muy probablemente lo haría como el primer golpe de una lucha a muerte realizada con medios técnicos protegidos contra EMP. Las respuestas indicadas a cualquier ataque EMP eran bien claras. La capacidad soviética máxima para imponer esos ataques existe todavía en las fuerzas estratégicas de la Federación Rusa, y predigo sin duda ninguna que seguirá existiendo durante muchas décadas [...] Cualquier país que disponga de un arma nuclear del tipo de las utilizadas en la II Guerra Mundial [y un cohete capaz de transportarla al espacio] puede realizar un ataque EMP.
–Dr. Lowell Wood, op.cit. (1999)

Se ha postulado insistentemente que las armas de pulso electromagnético y otras aún más esotéricas como las de oscurecimiento constituirían el compás de apertura de la guerra nuclear. Un país así atacado a escala continental sufriría grave desarticulación de sus sistemas defensivos, y muy especialmente en sus radares y telecomunicaciones radioeléctricas. Pero, si bien todos los medios militares que se pueden proteger suelen estar protegidos, su efecto sobre la infraestructura civil resultaría tan devastador que un atacante podría optar por utilizar únicamente esta técnica para asestar un golpe terrible sin iniciar una guerra nuclear a gran escala.

Un solo cohete con una sola cabeza detonando en el espacio exterior, lejos de cualquier sistema antimisil del presente o del futuro próximo, puede provocar con facilidad esta clase de efectos a mayor o menor nivel. Hace tiempo que los científicos rusos y chinos publican abiertamente artículos sobre las posibilidades de construir armas de "súper-EMP", diseñadas específicamente con objeto de llevar esta clase diferente de destrucción a sus límites teóricos máximos. Para potencias que disponen desde hace décadas de tecnología de armas nucleares avanzadas, misiles balísticos y cohetes espaciales, el coste de tales opciones es ridículamente bajo. Incluso países mucho más atrasados como Corea del Norte podrían llevar a cabo un ataque de este tipo con éxito, lo que seguramente explica algunas realidades presentes de la política internacional.

Curiosamente, un ataque de pulso electromagnético sólo se puede realizar una vez, y luego hay que esperar a que la atmósfera se descargue para repetirlo: cuando el aire está altamente ionizado por la detonación precedente, los siguientes pulsos "se ponen a tierra" y no hacen gran cosa. Por este mismo motivo se prefieren armas de fisión de una sola etapa en vez de armas de fusión multietápicas, o se corre el riesgo de que el pulso generado por la pequeña carga iniciadora debilite los efectos de las siguientes etapas.

Por su capacidad para causar grandes daños en un área inmensa a un coste ridículo, de manera difícilmente evitable y con la hipotética posibilidad de desarticular por completo la sociedad atacada durante un periodo de tiempo indeterminado, es muy probable que este tipo de armas se utilizaran en cualquier conflicto que escalara al nivel nuclear.

Armas de pulso electromagnético no nucleares.


Se han postulado diversas armas electromagnéticas de alcance reducido, con el propósito de realizar ataques selectivos contra una instalación o vehículo determinados. Ya en 1951, Andrei Sajárov y su equipo propusieron en la URSS un cierto generador por compresión de flujo mediante bombeo explosivo, que fue reproducido poco después en el Laboratorio Nacional Los Álamos estadoundense. Los generadores Marx usados en la investigación de los efectos del pulso electromagnético constituyen otra posibilidad, aunque son caros y voluminosos para una aplicación militar en el campo de batalla. Un dispositivo llamado vircator puede convertir con facilidad la energía producida por estos generadores en fuertes pulsos locales, con un alcance de decenas o cientos de metros.

No se ha documentado con claridad el uso de este tipo de armas en guerras reales, probablemente porque están envueltas en un velo de secreto, los sistemas militares suelen estar protegidos contra pulsos y las redes eléctricas civiles se suprimen con más facilidad y de manera más selectiva mediante el uso de bombas de grafito.

Defensa contra pulsos electromagnéticos.


Es conceptualmente sencillo proteger una instalación o equipo contra pulsos electromagnéticos, y en ocasiones hasta barato: si la defensa se implementa en la fase de diseño, puede llegar a encarecer el producto final en cantidades tan bajas como un 5% (aunque en otros casos llegue a superar el 100%). Sin embargo, esto sólo es aplicable a determinadas instalaciones y dispositivos, y una protección fuerte contra pulsos electromagnéticos militares presenta numerosos problemas de índole práctica (y económica).

Uno de estos problemas sustanciales radica en que, para proteger una instalación o equipo contra esta clase de ataque, la única aproximación verdaderamente eficaz consiste en encerrarlo en una caja o jaula de Faraday. Sin embargo, una jaula de Faraday perfecta resulta más fácil de decir que de hacer, sobre todo cuando hablamos de instalaciones voluminosas como una central eléctrica o telefónica, una estación de transformación, una refinería o una planta industrial. Entre otras cosas, requiere un costoso mantenimiento constante, para evitar que la humedad, la oxidación o incluso cosas como pequeños corrimientos de tierra que generen grietas en el subsuelo dejen un "paso libre" al pulso.

Otro problema importante radica en que las propias redes (eléctrica, telefónica, incluso la de aguas y alcantarillado...) pueden transportar el pulso con facilidad al interior de la instalación o dispositivo. Todo contacto con el exterior debe estar defendido con componentes dieléctricos, fusibles o disyuntores ultrarrápidos –raros y caros, pues como ya hemos mencionado las protecciones contra el rayo no sirven contra el componente E1 del pulso– o, incluso, mediante el uso de equipos totalmente autónomos situados dentro de la jaula.


Resulta especialmente complicado proteger los dispositivos provistos –externa o internamente– de antenas o de cableados o circuitos que actúen como una antena, dado que la naturaleza de las mismas es precisamente captar tanta energía electromagnética de la atmósfera como sea posible. Esta clase de aparatos quedarán destruidos con facilidad durante un ataque de esta naturaleza, e incluso pueden llegar a incendiarse o estallar. Prácticamente todos los equipos electrónicos que utilizamos cotidianamente y las redes que los alimentan son susceptibles de actuar como una antena.

Investigación de los pulsos electromagnéticos.


Los procesos y efectos de los pulsos electromagnéticos de gran altitud se estudian fundamentalmente por dos vías. Una de ellas son los generadores Marx, capaces de inducirlos localmente sobre los equipos que se desea poner a prueba. De esta forma, se pueden descubrir sus efectos sobre cada aparato específico y sobre las protecciones que se les puedan haber implementado. Pese a que estos equipos son costosos y muy voluminosos, son numerosos los países que han trabajado con los mismos: Estados Unidos, la URSS y luego Rusia, China, el Reino Unido, Francia, Alemania, Holanda, Suiza e Italia.


Para comprender la manera como se generan estos pulsos y otros fenómenos similares de utilidad tanto civil como militar se utilizan las instalaciones del tipo del HAARP, tan del gusto de los conspiranoicos (aunque nunca sean capaces de acertar a qué se dedican realmente, y desde luego no tiene nada que ver con los terremotos). Tanto el HAARP norteamericano (con su potencia de 3,6 MW... hay cadenas de radio que emiten más energía) como la instalación rusa de Sura (190 MW, 53 veces más) o el EISCAT europeo (cerca de un gigavatio total) y algunos otros de menor potencia son equipos de calentamiento ionosférico por radiación electromagnética. Estas instalaciones permiten simular de manera limitada el bombeo de rayos gamma y X en las capas exteriores de la atmósfera característicos de una carga nuclear EMP (y también de un montón de fenómenos naturales, como la radiación solar).


Sin que el mundo lo supiera, las principales potencias han dispuesto durante más de cuarenta años de un arma capaz de acabar con la civilización tecnológica moderna en apenas una fracción de segundo. En vez de corregir discretamente esta debilidad, la evolución de las sociedades y los mercados hacia unas tecnologías cada vez más delicadas y una economía donde se tienden a presionar todos los costes a la baja han magnificado el riesgo de que un ataque así suprima radicalmente los medios técnicos de una nación moderna y la envíe de vuelta al siglo XIX... en un tiempo donde ya nadie recuerda cómo se sobrevivía en el siglo XIX. Al igual que ocurre con las armas nucleares, no hay manera de desinventar el pulso electromagnético; sólo queda protegerse contra él. La pregunta es si queremos. Si queremos pagarlo, claro.

Lee también la adenda a este artículo, con detalles y precisiones importantes (23 de enero).

lunes, 18 de enero de 2010

Aquella vez en que no fuimos muchos más de mil.

Eventos ligados a nuestra extinción. O casi.


En el corazón de cada una de nuestras células, de lo que somos, acecha un misterio inquietante. El estudio del ADN mitocondrial –que se transfiere de madres a hijas desde el principio de la reproducción sexuada– ha establecido repetidamente que todos nosotros, tú y yo, estamos emparentados con una misma hembra homo sapiens que vivió en África hace entre 140.000 y 200.000 años: la llamada Eva mitocondrial. Esto se pudo determinar gracias a que el ADN mitocondrial acumula mutaciones capaces de transferirse a la siguiente generación una vez cada 3.264 años aproximadamente. Contando el número de mutaciones que separan a los humanos más distantes genéticamente entre sí, fue posible establecer esta datación.

No sólo eso. El estudio del cromosoma Y –que se transfiere de padres a hijos– ha permitido descubrir también que hace entre 60.000 y 90.000 años vivió también en África un cierto Adán cromosómico-Y, con el que todos estamos igualmente emparentados. La técnica del reloj molecular es determinante para conocer estas fechas.

Hay mucha gente que ha oído campanas sobre este asunto, pero con frecuencia de forma distorsionada. Por ejemplo: en contra de lo que muchos creen, esto no significa que Eva mitocondrial fuera la única hembra que vivió en su momento, como tampoco Adán cromosómico-Y fue el único macho de su tiempo; ni se puede afirmar que ambos coincidieran en el tiempo: les separan de 60.000 a 140.000 años . Lo que sí significa es que todos estamos emparentados al menos a través de ellos, y para que pudiera darse un caso así, tuvimos que ser muy pocos en esos momentos. Muy, muy pocos. Menos de quince mil. Según algunos autores, poco más de mil, de los cuales la mayor parte serían niños. Eso quiere decir que al menos en dos ocasiones habríamos debido estar en la lista roja de la IUCN como especie en peligro de extinción. Si hubiera habido algún observador externo en esos momentos, es muy posible que la enorme dificultad de encontrar alguna pareja humana sobre la faz de este mundo le hubiese conducido a pensar que estábamos en peligro crítico o, simplemente, extinguidos.

Este fenómeno de coalescencia genética se puede observar muy bien en la actualidad gracias al estudio de especies que estuvieron recientemente en peligro de desaparecer, como el bisonte europeo, el elefante marino del norte, el guepardo o el hámster dorado. Incluso se puede estudiar en los animales domésticos de pura raza, a quienes los criadores inducen un cuello de botella genético artificial por el método de cruzarlos únicamente con otras parejas de similar pedigrí.


En resumen: que, según estos indicios y otros más, hubo dos veces en que fuimos muy poquitos: un grupo o algunos minúsculos grupos interconectados vagando por los bosques africanos en un intento desesperado de sobrevivir. Quien hubiera observado entonces a aquellas lamentables criaturas difícilmente habría podido imaginar que, unos milenios después, sus descendientes tendrían problemas de sobrepoblación en un mundo plagado de ellas por todas partes.

Eva mitocondrial nos es de utilidad –entre otras muchas cosas, bastantes de ellas con interesantes aplicaciones en medicina genética– para ubicar y poner fecha al momento y lugar aproximados en que el homo sapiens sapiens surgió en el planeta Tierra. Adán cromosómico-Y nos cuenta un relato distinto: el de aquella otra vez en que casi nos fuimos de aquí. Pero, ¿por qué?

La hipótesis Toba.


Hace entre 700 y 750 siglos, la Caldera de Toba (que actualmente se halla en la Isla de Sumatra, Indonesia) estalló en la erupción volcánica más poderosa de los últimos dos millones de años. Liberó un gigatón de energía (aproximadamente la mitad que todas las armas nucleares existentes en la actualidad, juntas) y propulsó a los cielos materia suficiente para cubrir toda Indonesia y partes de Malasia con seis metros de cenizas o más y el subcontinente indio entero, con quince centímetros. Entre otras cosas, emitió a la atmósfera cien millones de toneladas de ácido sulfúrico, provocando una lluvia ácida masiva.

Para que nos hagamos una idea, la erupción volcánica más potente de los tiempos históricos –la del Tambora, no muy lejos de allí, en 1815– fue unas diez veces más pequeña, y aún así provocó graves efectos climatológicos. Este fue el año sin verano debido a que los gases y cenizas taparon la radiación solar por todo el mundo, provocando pésimas cosechas y la muerte de mucho ganado por la pérdida de los pastos, lo que causó la peor hambruna del siglo XIX en Europa, Norteamérica, China y otros muchos lugares.

La hipótesis Toba vincula la explosión de este volcán con una gran mortandad de aquellos humanos primitivos que pudo empujarnos al borde de la extinción hace de 70.000 a 75.000 años, precisamente en los tiempos del Adán cromosómico-Y. Según este análisis, aquella erupción volcánica pudo dejarnos durante varios años compitiendo por unos escasos restos de comida con el resto de animales, con los corredores ecológicos dislocados, ateridos de frío entre la bruma y las tinieblas; una situación análoga a la que produciría una guerra termonuclear total a pequeña escala, aunque sin radiactividad. Cualquiera diría que, realmente, se pareció mucho a un evento ligado a la extinción.

El largo cuello de botella.

Otros autores, en cambio, opinan que el suceso de Toba no fue más que la puntilla en un largo proceso de alta presión evolutiva que afectó al homo sapiens sapiens y sus inmediatos ancestros durante una buena parte de su existencia. El número de fósiles humanos durante los primeros 100.000 años que pasamos aquí es francamente reducido, muy distinto de lo que cabría esperar en una especie que ha demostrado sobradamente su capacidad de reproducirse más allá de la sensatez. Los rápidos cambios que condujeron desde los primeros homo erectus al humano moderno nos hablan también de una evolución acelerada, lo que sería compatible con un entorno muy hostil que exigía constantes adaptaciones al medio. Hawks, Hunley, Lee y Wolpoff proponen, incluso, un cuello de botella de dos millones de años de duración –la práctica totalidad de la presencia homínida en este planeta–, donde Toba sólo sería una anécdota y los tiempos presentes, una excepción; o, al menos, una serie constante de cuellos de botella a lo largo de nuestra prehistoria.



Los estudios paleoclimáticos apuntan a que África sufrió una serie de sequías mayores durante un larguísimo periodo, desde hace 135.000 años hasta hace 90.000. Recientemente se ha apuntado que estos u otros fenómenos mantuvieron a las poblaciones humanas muy reducidas y aisladas entre sí, llegando incluso a estar a punto de dividirse en dos especies distintas. En todo caso, parece claro que hasta la Edad de Piedra Tardía, durante el Paleolítico Superior, no comenzamos a multiplicarnos y extendernos significativamente. O, dicho de otra manera, sólo comenzamos a abandonar el borde de la extinción cuando fuimos capaces de desarrollar las tecnologías de la revolución paleolítica.

Provistos de estas herramientas que nos facilitaban la supervivencia, pudimos abandonar África por segunda vez, como nuestros antepasados homínidos lo habían hecho algún millón de años antes. Así terminaríamos llegando a Eurasia, donde desplazamos al Neandertal. O, más probablemente, lo exterminamos, pese a lo que digan las –cada vez más difíciles de sustentar– hipótesis de absorción. Buenos somos nosotros cuando nos disputan la tierra, el cielo y el mar.

Hipótesis multirregional frente a hipótesis africana.

En el mundo científico ya prácticamente no quedan defensores de la hipótesis multirregional, según la cual el ser humano habría evolucionado en distintos lugares de manera más o menos simultánea, a partir de los homínidos precedentes que salieron de África mucho antes. Merece la pena mencionarla por motivos históricos, pero tanto los estudios paleoantropológicos como sobre todo los genéticos hacen muy difícil ya sustentarla. Específicamente, estos análisis del ADN mitocondrial y el cromosoma Y nos hablan de una población humana reducida y estrechamente emparentada durante la mayor parte de nuestra existencia, lo que no sería el caso si hubiéramos evolucionado en lugares y momentos diferentes.

Según casi todo lo que sabemos en la actualidad, somos por dos veces africanos. La primera vez, cuando el homo habilis, el primer constructor de herramientas, evolucionó en la Cuenca de Olduvai (actualmente, Tanzania) a partir de los australopitecos precedentes. Estos homos y sus sucesores permanecieron en África, aunque algunos de ellos fueron saliendo lentamente hacia otras latitudes para ir transformándose en otras especies como, por ejemplo, el Neandertal. La segunda vez fue cuando homo sapiens sapiens evolucionó a su vez en algún punto del África subsahariana y, tras sobrevivir a estos cuellos de botella, se dotó de nuevas herramientas y conquistó el mundo.


Es bueno recordar de dónde venimos, entre otros motivos para hacernos una idea de a dónde vamos. Somos una especie delicada, que depende enormemente de la estabilidad medioambiental y de su ciencia y su tecnología para sobrevivir en la inmensa mayoría de los lugares que ocupamos, y no digamos ya para intentar vivir en otros. Hubo al menos una vez en que, siendo ya como somos tú y yo, estuvimos muy cerquita de extinguirnos. Y todos nosotros, todos los que sobrevivimos, somos mucho más parientes de lo que algunos quisieran saber. De todo esto no hace millones de años. Por aquel entonces, ya estábamos tallando diseños geométricos en las piedras de África del Sur, que treinta mil años después se convertirían en el en arte rupestre de Namibia, Francia y otros lugares; y, sesenta y pico mil después, en las pirámides de Egipto y los ziggurats de Mesopotamia. Quienes vivieron aquello ya eran como nosotros y vivían de manera muy parecida a la de algunas de las comunidades más primitivas del presente. Ya eran nosotros.