La crisis, la ruina de Iraq y los errores fundamentales de concepto provocan una decisión esperada.
Es un proceso lento, pero seguro, que se plasmó claramente el mes pasado con la votación en el Senado de los Estados Unidos favorable a terminar la producción del supercaza F-22 Raptor. No habrá presupuesto el año próximo para seguir fabricándolos, y a duras penas para mantener los actuales, que necesitan 34 horas de mantenimiento por cada hora de vuelo. No es de extrañar que cada una de estas horas de vuelo cueste casi 50.000 dólares. Así, se quedarán finalmente con 187 aviones de este tipo, muy lejos de los 750 que se prometieron en un principio, de los 381 que la Fuerza Aérea consideró "imprescindibles" año y medio atrás y bastante por debajo de los 243 que constituían un "mínimo absoluto" hace seis meses. En vez de eso, la columna vertebral de la USAF estará compuesta por los mucho más flexibles y económicos F-35 Lightning II.
Y con semejantes costes de mantenimiento, habrá que ver cuántos de esos 187 Raptors siguen volando dentro de cinco o diez años. Pero no se trata sólo de este polémico caza semifurtivo de superioridad aérea, sino también de más cosas. El Secretario de Defensa Robert Gates explicó algunos de los recortes más significativos en una comparecencia del pasado mes de abril:
Cancelación del programa satelitario de comunicaciones militares avanzadas TSAT, valorado en 26.000 millones de dólares.
Recorte de 1.400 millones en el controvertido sistema de defensa antimisil, para concentrarse en la protección terminal de teatro de operaciones. Específicamente, desaparece el segundo prototipo de láser aereo ABL, el vehículo interceptor múltiple MKV y en general cualquier cosa que no esté orientada a la defensa terminal estricta.
Terminación de los nuevos destructores furtivos DDG-1000, que a su vez era un recorte sobre el proyecto DD-21 anterior. Se construirá un mínimo de uno y un máximo de tres de los que ya están en el astillero, y ninguno más.
Retraso en la producción de los nuevos portaaviones de la clase Gerald Ford, cuyo tiempo de construcción por unidad pasará a ser de cinco años.
No se iniciará el desarrollo de ningún nuevo bombardero que sustituya a los B-52 Stratofortress, B-1B Lancer o B-2 Spirit. Algunos de estos aparatos tienen más de cincuenta años de antigüedad y el más reciente lleva ya doce años en servicio.
También se cancela el proyecto FCS para la construcción de vehículos de combate futuros, que debían suceder a los actuales carros M1 Abrams y otros blindados.
¿En qué guerra?
La primera pregunta que hay que hacerse a la hora de evaluar un sistema armamentístico es: "¿en qué guerra?". De nada sirve disponer de un arma muy sofisticada o impresionante si no existe ningún conflicto en que pueda ser usada claramente; pues un arma, a fin de cuentas, sirve para pelear en una guerra. Y todos estos proyectos son herederos de la Guerra Fría, cuando enfrente había una URSS capaz de igualar e incluso aumentar todas las apuestas.
En el nuevo mundo de guerras asimétricas en lugares de relevancia menor, focos geoestratégicos multilaterales, fuerzas nucleares proliferadas y modelo económico globalizado, donde las grandes disputas se pelean ante la Organización Mundial de Comercio, muchos de estos sistemas carecen de sentido. Por decirlo de alguna manera, "ha estallado la paz", y la fantasmagórica guerra contra el terrorismo simplemente es un chiste trivial en comparación con los enfrentamientos de otros tiempos aunque algunos quieran ver en ella la Tercera Guerra Mundial que nunca estalló.
Armas como el F-22 no tienen oponente. Pero no en sentido metafórico, sino en sentido estricto: no hay ningún conflicto donde se puedan utilizar con provecho, salvo ejercicios de imaginación bastante descabellados. Se dice con frecuencia que un portaaviones de la US Navy son cien mil toneladas de diplomacia, pero es una diplomacia muy cara y poco útil en el mundo actual. Nadie va a ir a la guerra contra Rusia o China, por poner dos ejemplos clásicos; todos estamos muy contentos comprándoles millones de toneladas de hidrocarburos y microelectrónica. Y para enfrentarse a países tercermundistas o en vías de desarrollo, es una fórmula demasiado sobredimensionada. Matar moscas a cañonazos, que se dice.
¿Con qué dinero?
Como es sabido, la economía norteamericana ha sido fuertemente afectada por la crisis global. Pero no se trata sólo de eso. Las aventuras militares del periodo de George W. Bush han resultado ser catastróficas en términos económicos. La Guerra de Iraq es especialmente desastrosa: según el Times, su coste ascenderá en el largo plazo a tres billones de dólares. Billones europeos; o sea, tres millones de millones de dólares. Haciendo las conversiones oportunas a dinero actual, eso resulta ser más que todo lo gastado por los EEUU en la Guerra de Vietnam o en la Primera Guerra Mundial, y un 60% de lo que emplearon en la Segunda Guerra Mundial. Sin ninguno de los beneficios de la Segunda Guerra Mundial; tan sólo el control indirecto sobre un país productor de petróleo que no logra pasar de 2,5 millones de barriles al día y un más que tenue dominio estratégico sobre un sector del Golfo Pérsico.
Estados Unidos tiene también la mayor deuda pública del mundo, que viene aumentando extraordinariamente desde los años de Reagan, con un breve paréntesis durante el periodo Clinton. El billón de dólares dedicado en fechas recientes al Acta de Estabilización Económica de Emergencia ante la crisis global ha dejado a la administración norteamericana sin dinero para gastar. El dólar sigue cayendo frente al euro y perdiendo progresivamente su papel de moneda de referencia y reserva. Quizás Estados Unidos ya no sea una superpotencia, sino un primus inter pares. Sea como fuere, es obvio que andan cortos de dinero. Cómo será la cosa, que McCain se ha mostrado de acuerdo con la mayor parte de estos recortes. Algo impensable en España, desde luego.
Breve perfil de las guerras futuras.
Todo país debería tener de vez en cuando esta misma valentía de revisar sus prioridades defensivas. Estados Unidos acaba de hacerlo, aunque sea presionados por la crisis, y sus decisiones reflejan muy bien la clase de guerras en que están pensando.
El gran beneficiario de esta reestructuración son los medios de espionaje, reconocimiento e inteligencia, especialmente en forma de aeronaves no tripuladas; aparatos robóticos del tipo del Predator. Resultan también favorecidos los pequeños buques de combate litoral, como el LCS y el JHSV. Y, desde luego, el F-35 como alternativa al F-22.
Pero se observa que la mayor parte del gasto va a estar destinada a mejorar los medios logísticos, que esencialmente se caían a trozos, con una importante partida para la cooperación internacional y mucho hincapié en operaciones pegadas al terreno del tipo que son características en los conflictos irregulares. Guerra de guerrillas avanzada, o contrainsurgencia si se prefiere utilizar su lenguaje.
Es evidente que esta opción resulta forzada por el compromiso de Estados Unidos en Iraq y Afganistán, dos conflictos enormemente asimétricos que han puesto en evidencia de modo palmario las debilidades del concepto precedente. Sólo el tiempo dirá si esta elección es sabia o ciega, pero resulta obvio que los Estados Unidos se preparan para luchar guerras futuras donde el enemigo no es un ejército poderoso, sino un crío con un AK-47 y explosivos. Es un extraño mundo el que nos ha quedado al terminar la Guerra Fría. Ejércitos del Tercer Milenio contra Kalashnikovs. Y, por el momento, cualquiera diría que van ganando los Kalashnikovs. O al menos, haciendo tablas, que es de lo que se trata. De sobrevivir.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Recordemos: la Organización Europea para la Investigación Nuclear (CERN) ha construido a lo largo de los últimos diez años el mayor y más potente instrumento científico de la historia de la humanidad. Se trata del LHC, o Gran Acelerador de Hadrones, un acelerador de partículas de muy alta energía instalado en un túnel circular de 27 kilómetros que se halla en el corazón de Europa, a caballo entre Francia y Suiza.
El LHC es una máquina extraordinaria, como no existe otra en el mundo, capaz de mirar hacia donde nadie ha mirado antes, jamás. Hacia la naturaleza profunda de la materia y de la energía, hacia los orígenes del universo, hacia las leyes sutiles que rigen la realidad, hacia el cómo y el por qué de todo lo que existe. Incluso antes de funcionar ya nos ha permitido conocer muchas cosas nuevas, y producir nuevas tecnologías. Entre ellas GRID, el futuro de Internet, que ya está presente cada día más, y varios nuevos materiales para la detección temprana del cáncer.
El LHC es una máquina única. Hasta el último de sus componentes constituye un proyecto de investigación científica en sí mismo, y todas sus piezas fundamentales se construyen especialmente para ella. Roza la perfección, pues el LHC trabaja con cuerpos sutiles mucho más allá de lo que ven los ojos, y el más mínimo error los haría desaparecer en medio del ruido.
El LHC nos abre las puertas del comprender como nunca antes fuimos capaces de comprender. Sin peligro ninguno, a pesar de lo que repitieron hasta la locura algunos destarifados. Es una obra magistral que refleja lo mejor del espíritu humano, extraordinaria y pacífica, creada para beneficio de todos y en contra de nadie.
Y sin embargo, nueve días después de su arranque, el LHC sufrió una avería catastrófica. Hasta ese momento había funcionado excepcionalmente bien, muy por encima de las previsiones. Pero el 19 de septiembre de 2008, durante una de las últimas pruebas de fiabilidad, se produjo algo muy parecido a una explosión en el sector 34. Los ordenadores cerraron automáticamente el sistema de inmediato, y los bomberos de la instalación tuvieron que acudir rápidamente al túnel para combatir una importante fuga de helio líquido. El mayor equipo científico del mundo, valorado en 6.000 millones de euros, quedó paralizado sin remisión.
¿Qué ocurrió en el LHC?
El LHC es el lugar más frío del universo conocido. Como suena. Todo él está a menos de dos grados por encima del cero absoluto, para asegurar que los 1.600 magnetos superconductores que lo componen cumplen su misión. Para mantenerlo a esa temperatura tan inconcebiblemente baja, más fría que el espacio profundo, se utiliza helio líquido.
El 19 de septiembre, conforme el personal técnico aumentaba la potencia en el sector 34 para llevarlo al 75% del nominal, una conexión falló. De inmediato, se encendieron las alarmas para indicar que más de cien magnetos habían perdido de golpe sus propiedades superconductoras; esto es una reacción automática de emergencia para proteger el acelerador. Antes de que los operadores llegaran a parpadear, todo el equipo estaba desactivado y seguro por acción de los ordenadores.
Pero había daños. El origen del problema estuvo en una barra de conexión de titanio-niobio entre dos de los magnetos. A pesar de todos los controles de calidad, estaba mal soldada de manera imperceptible. La función de esta barra es alimentar el magneto con electricidad, y este minúsculo error de soldadura generó una resistencia anómala ante el paso de 8.700 amperios de corriente. Se vaporizó al instante, con violencia, y al hacerlo perforó el aislamiento de vacío total que debe reinar en el interior del LHC.
Al momento, el helio líquido entró en ebullición y comenzó a evacuarse al túnel por las válvulas de seguridad instaladas a tal efecto. Pero no lo bastante deprisa. Cincuenta y tres magnetos en total resultaron afectados por la explosión y por la fuga del gas ultrafrío. Los equipos de seguridad del CERN tenían la instalación asegurada al poco rato. Lamentablemente, casi 700 metros del sector 34 habían resultado destruidos y contaminados con hollín. Ninguna persona resultó herida, y tampoco se produjeron daños al medio ambiente.
Todo, debido a una conexión levemente anómala entre más de 123.000. ¿Hemos dicho ya que esta máquina sólo admite la perfección? ¿Y ahora, qué?
Ahora, el acelerador ha sido ya reparado y se están instalando nuevas medidas de protección. También se están estudiando todos los conectores, y no sólo los del tipo que causaron la avería; se han detectado al menos dos más que podrían causar problemas. El nuevo mecanismo QPS de protección de los equipos superconductores está ya en pruebas.
La fecha de puesta en marcha ha quedado establecida a mediados de noviembre de 2009; aproximadamente un año de retraso. También se ha determinado que durante el curso 2009-2010 no se llevará el acelerador hasta su máxima potencia. En vez de eso, se realizarán los experimentos que requieren menor energía mientras se toman todas las precauciones para llegar al tope con seguridad, después de la parada técnica prevista a mediados de 2010.
La aventura del conocimiento está a punto de empezar de nuevo en el LHC. En breves semanas, comenzará de nuevo el enfriamiento. En pocos meses, estaremos aprendiendo otra vez. Para el beneficio de toda la humanidad.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Medio siglo. Ese es el tiempo que la ciencia española lleva sin conseguir un Premio Nobel.
E incluso esa cifra es muy discutible, pues el último fue el Dr. Severo Ochoa, Premio Nobel de Fisiología o Medicina 1959. Pero el Dr. Ochoa era un exiliado político, discípulo del médico y Presidente del Gobierno de la República Juan Negrín. Y cuando el Instituto Karolinska de Estocolmo le concedió el galardón científico más prestigioso del mundo, D. Severo era ya ciudadano de los Estados Unidos desde tres años atrás.
Si no contáramos al Dr. Ochoa, hay que retroceder hasta 1906 para encontrarnos con el único Premio Nobel de las ciencias españolas: el Dr. Santiago Ramón y Cajal, descubridor entre otras cosas de las neuronas del cerebro. Más de un siglo: 103 años sin que la medalla de oro con el rostro de Alfred Nobel viaje a nuestro país.
Habrá quien piense, quizás, que nos tienen manía. Pero, honestamente, ¿hay alguna razón para que un científico español –o hispánico, en general– obtenga este reconocimiento? Incluso países presumiblemente menos desarrollados tienen sus premios Nobel científicos. Los argentinos Milsten y Leloir, en medicina. Chandrasekhar y Korana, de la India, en física y medicina respectivamente. El mexicano Mario Molina, en química. Si nos comparamos con cualquier país europeo, la perspectiva es descorazonadora. Por no hablar ya de los grandes.
Pongo el ejemplo del Premio Nobel de manera emblemática. No hace falta recurrir a él para darse cuenta de la lamentable realidad: estamos atrasados y vamos a remolque. Profundamente. España registra 71 patentes al año por cada millón de habitantes, más o menos como Croacia, Hungría o Ucrania. Y lo que es más grave: más de la mitad del dinero empleado en investigación y desarrollo corresponde al sector público, no a la empresa privada, una anomalía radical por comparación con todos los países desarrollados. El gasto privado en I+D fue apenas de un 46% del total, cuando la Agenda de Lisboa establece que debería ser al menos del 66%. Con frecuencia, andamos mendigando nuestra participación en cooperaciones científicas internacionales, cuando no tiene que comprarlas directamente el gobierno de turno con buen dinero. Público, por supuesto.
En realidad, basta con salir a la calle y hablar con la gente de cualquier edad o condición. Salvo el ínfimo porcentaje de población que está relacionado con los sectores de I+D, el progreso científico y tecnológico, simplemente, están fuera del discurso social, político y económico. Para los políticos, es una patata caliente que se pasan de unos a otros tratando de no hacer mucho ruido. Para la mayoría de los empresarios, es poco más que una forma de rebañar subvenciones extra. Las universidades crean generaciones de jóvenes científicos con dinero público que luego languidecen con sueldos mileuristas, cuando no aceptan ofertas en el exterior, en lo que es una constante fuga de cerebros. Y a nadie le importa demasiado.
¿Qué nos ocurre? ¿No nos damos cuenta de que vivimos en un mundo donde sólo los creadores de ciencia y tecnología tienen alguna posibilidad de pintar algo en el futuro?
Gloria y destrucción de la ciencia española.
Hay razones históricas para entender este estado lamentable de la ciencia y la tecnología en España, que se remontan a la Edad Media y la pervivencia en España de un a modo de Antiguo Régimen hasta tiempos bien recientes. Ya el Desastre de Cuba, donde el atraso secular español fue determinante en la derrota frente a la Armada Norteamericana, impulsó a toda una generación de regeneracionistas para tratar de compensar el estado catastrófico de la ciencia en España.
De ese tiempo data el más feliz de los intentos para sacar a España de esa versión tardía de la Edad Media: la Junta para la Ampliación de Estudios e Investigaciones Científicas, heredera de la Institución Libre de Enseñanza de D. Francisco Giner de los Ríos. La Institución Libre de Enseñanza y la Junta de Ampliación de Estudios dieron lugar al periodo más floreciente de la ciencia en España: Ramón y Cajal, Ignacio Bolívar, Torres Quevedo, José Casares, Pío del Río Hortega, Blas Cabrera, Odón de Buen, Rodríguez Carracido, Rey Pastor, Faustino Miranda y tantos otros olvidados que sería demasiado largo mencionar. Por no hablar de grandes de las Humanidades como José Echegaray, Menéndez Pelayo, Américo Castro o María de Maeztu.
Siendo como es España, tanto la Institución Libre de Enseñanza como la Junta para la Ampliación de Estudios nacieron por oposición a la influencia de la Iglesia Católica y los sectores más conservadores de la sociedad española. La práctica totalidad de sus miembros eran librepensadores y poco amigos del clericalismo, que de forma natural se identificaron con la República Española cuando esta fue proclamada en 1931, si es que no formaban parte de quienes la trajeron. Inevitablemente, casi todos ellos tuvieron que huir al exilio al final de la Guerra Civil para no ser fusilados como el eminente Dr. Joan Peset Aleixandre y tantos otros. La Institución Libre de Enseñanza y la Junta de Ampliación de Estudios fueron prohibidas como ateas y antiespañolas. Se expulsó de la investigación y el magisterio a toda una generación de los hijos de Giner de los Ríos, en lo que constituye sin duda alguna la mayor catástrofe a largo plazo que ha sufrido España en el último siglo.
En su lugar, se creó el Consejo Superior de Investigaciones Científicas. Su primer director fue José Ibáñez Martín, que luego sería Ministro de Educación de la España franquista. Ni siquiera era científico, sino abogado y catedrático de geografía e historia. Sus palabras en el discurso fundacional resultan paradigmáticas:
"Queremos una ciencia católica. Liquidamos, por tanto, en esta hora, todas las herejías científicas que secaron y agostaron los cauces de nuestra genialidad nacional y nos sumieron en la atonía y la decadencia. [...] Nuestra ciencia actual, en conexión con la que en los siglos pasados nos definió como nación y como imperio, quiere ser ante todo católica."
Así quedó erradicada la semilla de la ciencia en España durante casi cuarenta años. Desde entonces, sólo hemos inventado el TALGO, la fregona y el chupa-chups. Eso que nos hace tanta gracia, y que maldito si la tiene. El "que inventen ellos" de D. Miguel de Unamuno llevado a las últimas consecuencias.
La España del pelotazo.
Pero sería muy fácil retrotraernos a tanto pasado clerical y anti-intelectual, y conformarnos con que si Franco era muy malo y los curas y señoritos, aún peores. Que lo eran. No obstante, llegada la libertad, no llegó con ella una transformación profunda de las estructuras sociales y económicas de España; y aunque la mentalidad ha cambiado mucho por fortuna en otras cosas, no lo ha hecho en este ámbito esencial. A pesar de que, por ejemplo, el CSIC actual se parezca más a la Junta de Ampliación de Estudios que al engendro nacionalcatólico soñado por el militante de la Asociación Católica Nacional de Propagandistas Ibáñez Martín y Albareda Herrera, del Opus Dei.
El siguiente paso de la decadencia científica de España podría resumirse muy bien en la España de las Oportunidades o del Pelotazo, que viene a ser lo mismo. La perpetuación de un modelo económico basado en la propiedad de la tierra (antes en forma de fincas agrícolas, ahora en forma de fincas urbanas) y unos servicios de bajo nivel de tecnificación nos han dado la puntilla. Se ha enseñado a dos generaciones que la forma de hacer dinero era dejarse de pajaritos en la cabeza y concentrarse en sectores sin futuro, pero muy rentables en el corto plazo. La sombra del "que inventen ellos" cayendo de nuevo sobre las viejas tierras de Iberia.
No tenemos futuro mientras la productividad sea sinónimo de abaratar costes y aumentar el número de horas de trabajo, en detrimento de la tecnificación, el mantenimiento de profesionales cualificados, la capitalización y la inversión en I+D.
No tenemos futuro mientras el ciudadano medio no comprenda que la ciencia y tecnología son aún más importantes que el paro o la seguridad ciudadana, y así se lo reclame a sus dirigentes. Pues el paro o la seguridad ciudadana pueden ser problemas coyunturales, mientras que la ciencia y la tecnología son las claves del mañana.
No tenemos futuro mientras sigamos concentrándonos en el pelotazo a corto plazo y el negociete de toda la vida, mientras nuestros mejores cerebros se van a trabajar al exterior porque en España no hay ni ha habido oportunidades para utilizar sus conocimientos viviendo a la vez una vida digna.
No tendremos futuro mientras conseguir un Premio Nobel en ciencias sea un sueño imposible, o un caso excepcional.
En mi opinión, necesitamos con urgencia un gran Plan Nacional de Ciencia. Uno de verdad, que arrastre al conjunto de la economía y de la sociedad. Y tendrá que ser público, pues en el tejido español de PYMEs y gigantes de la construcción y el turismo es poco imaginable de otra manera. Un proyecto ambicioso de veras, que aspire a colocarnos entre los mejores del mundo e incluya al sistema educativo y a los medios de comunicación social. Pero con estas palabras, ya parezco uno de aquellos viejos regeneracionistas del XIX. Y como dijo Ramón y Cajal:
"la retórica no detiene nunca la decadencia de un país y [...] la literatura de los regeneracionistas solo fue leída por ellos mismos".
Claro, que como nuestro Premio Nobel también añadió:
"Hay un patriotismo infecundo y vano: el orientado hacia el pasado; otro fuerte y activo: el orientado hacia el porvenir."
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
El accidente del pasado verano en Barajas es idéntico a otro ocurrido en Detroit en 1987.
Un gran accidente que se cobra decenas de vidas siempre es trágico. Pero resulta mucho más duro cuando comprendes que ya ocurrió antes, y que no aprendimos la lección. O no la entendimos, algo casi peor.
Seguramente, te acordarás: el pasado verano por estas fechas, un 20 de agosto a la hora de comer, el vuelo 5022 de Spanair con destino a Gran Canaria nunca llegó a los cielos. En vez de eso se separaba unos quince metros del suelo y perdía el equilibrio para estrellarse en una zona abrupta entre las grandes pistas del Aeropuerto de Madrid-Barajas. Murieron 154 personas, incluyendo a toda la tripulación, y 18 fueron capaces de sobrevivir con graves lesiones.
Investigar los accidentes aéreos es siempre una tarea difícil, compleja e ingrata, llena de dudas, presiones y espacios en blanco. Sin embargo, en esta ocasión existía un antecedente.
El 16 de agosto de 1987, un avión del mismo modelo despegaba del aeropuerto de Detroit (Estados Unidos) con destino a Phoenix, Arizona. Se elevó también unos metros del suelo, perdió el equilibrio, chocó con unos postes de la luz y se estrelló. En esta ocasión perecieron 156 personas y sólo una niña de cuatro años pudo sobrevivir, gravemente herida; además, hubo otros dos muertos y cuatro heridos en tierra.
En ambos accidentes se trataba del mismo modelo de aeronave: un Boeing/McDonell Douglas MD-82. La tripulación no verificó adecuadamente los procedimientos previos al despegue, a pesar de que, como es sabido, les iba en ello la vida. Ambos aparatos echaron a correr por la pista con una configuración incorrecta de flaps y slats. Y el sistema TOWS que debía advertirles del fallo nunca funcionó. El vuelo de Detroit y el vuelo de Madrid murieron igual, con veintiún años de diferencia.
¿Cómo es esto posible? ¿Acaso no se realizan las investigaciones de siniestros aéreos para que un mismo accidente nunca pueda ocurrir otra vez? ¿Es posible que, dos décadas después, se haya reproducido la misma tragedia sin que nadie se diera cuenta de lo que iba a ocurrir?
Dos catástrofes paralelas.
Como es cosa sabida, a bajas velocidades los aviones no vuelan muy bien. Un avión tiene que acelerar bastante para que sus alas produzcan sustentación suficiente, e incluso entonces aún necesitará correr algo más antes de estabilizarse en el aire. Como correr mucho por el suelo es dañino y peligroso, los aviones disponen de unas superficies extensibles en las alas que se llaman flaps y slats. Estos mecanismos son dispositivos hipersustentadores, y su función no es otra que incrementar la sustentación a bajas velocidades, aumentando la superficie del ala o modificando temporalmente su perfil.
Durante el despegue y aterrizaje, estos dispositivos hipersustentadores son críticos para mantenerse en el aire. Sin ellos, normalmente, el avión entrará en pérdida; esto significa que la velocidad es demasiado baja para que las alas produzcan sustentación suficiente, y entonces el avión se desploma. Los flaps y slats impiden eficazmente este peligro.
Ni el Northwest 255 ni el Spanair 5022 llevaban los flaps y slats correctamente configurados para despegar. Aparentemente, esto se debió en ambos casos a un fallo humano: no revisar las listas de procedimientos de manera exhaustiva antes de la operación, debido a interrupciones y problemas previos al despegue.
Los aviones relativamente modernos como el McDonell Douglas MD-82 disponen además de un sistema de advertencia para el caso exacto de que los flaps y slats estén mal configurados, que avisa también de otros posibles problemas durante el despegue. Este sistema se llama TOWS, iniciales en inglés de Sistema de Alertas al Despegue. El TOWS, como es lógico, sólo funciona cuando el avión está aún en el suelo; su función, precisamente, es prevenir un despegue con la configuración incorrecta.
El sistema TOWS, que normalmente funciona muy bien, falló misteriosamente en ambos casos. Ni los pilotos del Northwest 255, ni los del Spanair 5022, supieron nunca que sus flaps y slats estaban en mala posición.
En el caso del vuelo de Detroit se achacó el problema a que el sistema no estaba recibiendo alimentación eléctrica por culpa de un disyuntor conocido como P-40. Sin embargo, el disyuntor quedó tan destruido en el accidente que las autoridades norteamericanas no pudieron determinar si realmente tenía un problema, y en su caso qué problema.
En el caso del vuelo de Madrid, tampoco se ha podido determinar aún la razón exacta de que el TOWS fallara. En esta ocasión, sin embargo, tenemos otros sospechosos: una sonda llamada RAT y un cierto relé 2-5.
La RAT y el relé 2-5.
En un avión, hay ciertos sistemas que sólo tienen que funcionar cuando el aparato está en tierra, otros que deben hacerlo únicamente mientras vuela, y muchos más deben actuar de manera distinta en el cielo que en la tierra. Como hemos visto, el sistema TOWS de aviso de mala configuración previa al despegue pertenece al primer grupo: lógicamente, sólo tiene que actuar antes de separarse del suelo.
¿Y cómo sabe el avión, por sí solo, si está en tierra o volando? Pues mediante unos conmutadores situados en el tren de aterrizaje delantero. Cuando el tren está extendido y apoyado en el suelo, cierran un circuito que alimenta a un montón de relés. Estos relés, entonces, conmutan a "modo suelo".
Uno de estos relés es el 2-5, que le dice a cuatro sistemas distintos si el aparato está apoyado en tierra o no. Estos cuatro sistemas son: unos conmutadores de alimentación de corriente alterna, un mecanismo de ventilación de la bahía de electrónica, los calentadores de una serie de sensores y sondas y... el sistema de alerta TOWS.
Prestemos atención a los dos últimos. Entre los calentadores que controla el relé 2-5 se halla el que impide que se congele en vuelo la sonda RAT. Esta sonda mide la llamada "temperatura del aire de impacto", y su función exacta no es muy importante para comprender el accidente. Lo importante es que llevaba varios días dando temperaturas imposiblemente altas, que no se correspondían con la realidad, y nadie sabía por qué. Los técnicos de mantenimiento le habían metido mano por lo menos seis veces en fechas anteriores, sin resolver el problema. Como la sonda RAT no es un equipo crítico para la seguridad del vuelo, seguían operando a vueltas con este problema.
Cuando el Spanair 5022 se encontraba ya listo para despegar, la sonda RAT volvió a presentar datos erróneos de nuevo. Indicaba 99ºC, y ya sabemos que en agosto hace mucho calor en Madrid, pero no tanto. Así que volvieron a la plataforma y llamaron a un técnico. En algún momento de este proceso, la tripulación retrajo los flaps y los slats, y ya nunca los volvió a extender de nuevo.
El técnico comprobó que la calefacción de la sonda RAT no forma parte del equipo crítico para la seguridad del vuelo, especialmente en pleno agosto, cuando no es previsible que se vaya a congelar durante un viaje a Canarias. Así que la desconectó, para evitar más retrasos, y los pilotos estuvieron de acuerdo. La verdad es que no había ningún motivo para pensar que esto pudiera significar algún otro problema. Cerraron el avión de nuevo y volvieron hacia la pista, con los flaps y slats desconfigurados. Hacia la muerte.
Hay quien se está preguntando por qué hay un foso, o riachuelo, en Barajas. Dicen que si eso agravó el accidente. En mi opinión, este tema no tiene sentido. Puede que lo agravara, o puede que ahora mismo estuviéramos lamentando el doble de muertos si el Spanair 5022 hubiera atravesado las pistas sin obstáculo alguno para empotrarse contra otro avión. Estas cosas nunca se pueden predecir.
Lo que no debe volver a ocurrir.
Es ciertamente muy llamativo que el sistema de alertas previo al despegue TOWS –cuyo detector de estado vuelo/suelo depende del relé 2-5– fallara después de desconectar la calefacción de la sonda RAT –que depende igualmente del relé 2-5–. Máxime si tenemos en cuenta que, en otros 26 casos de calentamiento excesivo de la sonda RAT en tierra, 25 se resolvieron finalmente sustituyendo este mismo relé.
La Comisión de Investigación de Accidentes Aéreos (CIAIAC) aún no ha podido determinar de qué manera falla este relé, si es que lo hizo realmente. Es bastante lógico, por lo que estamos viendo, que concentre todas las sospechas.
Más extraordinario resulta que después del accidente del Northwest 255 en 1987 no se tomaran acciones mucho más severas con respecto a la fiabilidad del sistema TOWS. Esto se debe a que, en los tiempos en que se diseñó el MD-82, esta clase de equipos se consideraban accesorios; faltaba bastante para llegar a la época de los Airbus completamente computerizados, con los que ni puedes mover el avión en un caso así. El MD-82 pertenece a unos tiempos anteriores, más artesanales, cuando los pilotos tenían mucha más libertad de actuación.
De hecho, al principio, este sistema no era obligatorio. En la actualidad lo es... pero en estos aviones de diseño antiguo no hay ningún sistema que informe de que el propio TOWS ha fallado. Esto ha ocurrido también en aviones Boeing 727 y Boeing 737, con sendos accidentes en Dallas e Indonesia.
Es incluso posible que las recomendaciones de seguridad emitidas después del accidente del Northwest 255, hace veinte años, ni siquiera llegaran de manera notable a los operadores posteriores de estos tipos de aeronave.
En su informe interino, emitido hoy, la Comisión de Investigación del Ministerio de Fomento hace unas recomendaciones muy importantes para todos los operadores de estos modelos de aviones, cuya implementación debería ser monitorizada en todos los países. Es sabido que Spanair también ha cambiado sus procedimientos en sus últimos meses. Lo que no puede ser es que vayamos a tener más muertos porque unos pilotos con exceso de trabajo y presión olviden verificar un procedimiento, y un simple relé falle. Ya ha sucedido dos veces. Sería intolerable que ocurriera otra más.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Es cosa sabida que en los últimos tiempos ha proliferado una tribu de pseudohistoriadores revisionistas dispuesta a hacernos tragar que la historia de España y de Occidente es la historia de las clases medias biempensantes, cristianas, blancas y conservadoras frente al enemigo exterior e interior; sólo comparable en su nivel de simpleza a quienes se inventan naciones sobre la marcha transformando a cualquier tirano medieval en fuente y luz de su identidad patriótica.
La verdad es que me parto la caja viendo a gentes de izquierdas reivindicando la figura de Jaume I el Conqueridor, que como todo el mundo sabe era un tío majete y fundador dels Països Catalans, partidario del matrimonio gay y la igualdad de sexos; exactamente en la misma medida en que me entra la risa tonta escuchando a los de derechas hablar maravillas del Cid Campeador, o sea el Said Campeador, un mercenario que saltaba de moro a cristiano y de cristiano a moro según le convenía. Detalle curioso: la Tizona fue forjada en la Córdoba musulmana con acero de Damasco, lo que podría ser anecdótico, pero no lo es en absoluto.
En este afán juntapalabras para sepultar la verdad histórica bajo mucha papelería de Elcorteinglés o la editorial concienciada más próxima, no podían faltar quienes tratan de minimizar la importancia y relevancia de la Edad Dorada del Islam, que en la Península Ibérica coincidió con el periodo andalusí. Ya es cosa sabida que quienes no creen mucho ni en su propia nación, ni en su propia civilización, ni en sus propias ideas sólo son capaces de plantearlas en términos de oposición a otras. O a otros. Llegan a decir que ni siquiera llegó a haber folleteo en los ochocientos años de interacción entre cristianos y musulmanes lo que, además de un clamoroso desconocimiento de la naturaleza humana, demuestra que no se han leído ni un solo estudio genético sobre la población española. Que, ya puestos, presenta 56 veces más marcadores norteafricanos que el promedio europeo. Lo cual también ocurre en el norte de África, a la inversa. Nosotros también nos lo hacíamos con las suyas, ¡qué se habrán creído esos!
Ahora que ya me he desahogado un poco, permitidme que os cuente algunas cosas sobre el mayor astrónomo hispánico, o hasta español si me apuras. Este compatriota respondía al intrincado nombre de Abu Ishaq Ibrahim Ibn-Yahyah Al-Naqqash Al-Zarqali, ni más ni menos; nacido en la Toledo islámica en 1029 y fenecido en la Sevilla de Al-Mutamid allá por el 1087. La historia le recuerda como Al-Zarqali o por su nombre latinizado: Azarquiel, así, con resonancias un poquito diabólicas. Belial, Azazel y Azarquiel. Por ejemplo.
Las potestades de Azarquiel.
Si el toledano Azarquiel hubiera nacido algunos kilómetros más al norte, en la Europa cristiana, habría tenido problemas incluso peores que si hoy en día hubiese nacido unos kilómetros más al sur, en tierras de Mohamed VI. Pues Azarquiel inventó algunas cosas y descubrió otras que habrían sido tachadas fácilmente de brujerías y herejías. Pero como tuvo la suerte de vivir en el Al-Andalus del siglo XI, que era un oasis de libertad de pensamiento en comparación con todo lo que le rodeaba en ese mismo momento y lugar, pudo sacarlo adelante sin mucho temor.
La primera brujería de Azarquiel fue un intrigante aparatito llamado azafea. La azafea es un instrumento de navegación derivado del astrolabio, sólo que, a diferencia del astrolabio anterior, no depende de la latitud del observador. Permite orientarse en cualquier lugar del mundo, incluyendo los mares y océanos. De todos los inventos y descubrimientos que abrieron la era de las grandes exploraciones y los imperios oceánicos, probablemente la azafea sea el más importante. Sin una azafea, Colón jamás habría llegado a América, ni Magallanes y Elcano podrían haber dado la primera vuelta al mundo. Claro que, ya puestos, la carabela se deriva también directamente del qarib, un tipo de buque andalusí. Sólo que Azarquiel no era marino. Su interés radicaba en la geografía y la astronomía. Tras recalcular correctamente el tamaño del Mar Mediterráneo y el movimiento del afelio terrestre, se dedicó a catalogar estrellas y planetas con gran precisión. De esta forma creó el primer almanaque (al-manakh); además de determinar en qué día exacto empezaban los meses de varias civilizaciones, así como la posición de los planetas en cualquier día y hora del año, predecía los eclipses de sol y de luna durante los años posteriores.
El almanaque de Azarquiel constituye el fundamento de las Tablas de Toledo y de las Tablas Alfonsinas, y fue traducido al latín por Gerardo de Cremona muchas décadas después de la muerte del científico andalusí. De esta manera, la astronomía pudo renacer en el mundo cristiano occidental tras siglos de oscuridad. Cuatrocientos años después, Copérnico le citaría manifestando estar en deuda con él. Este fue el legado enorme del andalusí Abu Ishaq Ibrahim Al-Zarqali, Azarquiel, a toda la humanidad. El cráter Azarquiel.
Con la conquista cristiana de la Taifa de Toledo, en 1085, Azarquiel tuvo que huír a la de Sevilla. Allí murió, apenas dos años después. Y su nombre comenzó a diluirse en la historia de España, tan proclive a recordar sólo a los amiguetes, a quienes estuvieron en el bando adecuado. Finalizada la conquista de Al-Andalus por los Reyes Católicos, y especialmente tras la expulsión de los moriscos, todos los nombres árabes fueron borrados de la memoria. La tradición cainita, esas cosas.
Sin embargo, la astronomía no llegó a olvidarlo por completo. Mucho tiempo después, hombres justos le concedieron uno de los mayores honores que se puede otorgar a los estudiosos del cielo: pusieron su nombre a un cráter lunar. El cráter Azarquiel se encuentra al este del Mar Nubio, formando un grupo de tres junto con el Ptolomeo y el Alfonso. Cada vez que miramos a la Luna, desde allí nos observa la memoria del viejo toledano que describió las cosas del cielo y abrió los océanos para quienes vinieran detrás. Quizás, esta vez sí, para siempre.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Recientemente falleció el conocido periodista Julián Lago, que popularizara en España el uso del detector de mentiras con el programa La máquina de la verdad (Telecinco). Desde entonces, son numerosos los programas de televisión que incorporan el polígrafo para atraer el interés de la audiencia; en apariencia, estaríamos ante una máquina maravillosa capaz de distinguir quién miente y quién dice la verdad. Si esto fuera así, quedarían resueltos algunos de los grandes problemas de la humanidad: la administración de justicia, el espionaje y contraespionaje, la credibilidad de los políticos y hasta los asuntos de cuernos. Una pasadita por el polígrafo, ¡y todo resuelto!
Algo así vienen a sugerir quienes se ganan la vida con él, jurando y perjurando que sus máquinas son capaces de distinguir la verdad de la mentira en un porcentaje enorme de las ocasiones. Del 90 al 95%, dicen. Claman que numerosas instituciones estatales y privadas se apoyan en él para garantizar su seguridad. Se lamentan de que los tribunales y gobiernos de la mayoría de países no les crean. Apelan al público para que haga presión en contra de esta injusticia.
Es cierto que algunas instituciones estatales se han apoyado en el polígrafo para garantizar su seguridad, y de manera muy notable el Gobierno de los Estados Unidos, país donde se inventó el aparatito. Lo que omiten mencionar es que este apoyo ha resultado ser catastrófico. Decenas de espías al servicio de países extranjeros han pasado la prueba del detector de mentiras sin ninguna dificultad, como Aldrich Ames, que trabajó para la Unión Soviética entre 1985 y 1991. O Karel Koecher y Larry Wu-Tai, que se infiltraron en la mismísima CIA durante los años '80. O Ana Belén Montes, que hasta el año 2000 trabajaba a la vez para la Agencia de Inteligencia de la Defensa y para la Cuba de Castro. O Leandro Aragoncillo, espía al servicio de Filipinas y Francia que permaneció en la Casa Blanca hasta 2005. Todos ellos pasaron con éxito numerosas pruebas del detector de mentiras, y ninguno fue descubierto gracias a él.
En fin: que cualquiera diría que el polígrafo, incluso aplicado por los mejores expertos en poligrafía del mundo, no sirve para gran cosa. Hasta los espías de medio pelo se cuelan por entre sus redes. Sólo en una ocasión el detector de mentiras inició una investigación por espionaje, la de Harold Nicholson, aunque se ignora en qué circunstancias exactas. Tampoco parece que haya servido nunca para esclarecer un crimen, sin la aplicación simultánea de técnicas policiales o judiciales más convencionales. En más de setenta años de existencia, el polígrafo no ha demostrado jamás su eficacia como detector de mentiras por sí solo. Y lo que es más grave: tiende a acusar de mentir a los inocentes. ¿Cómo es posible, pues, que haya gozado y siga gozando de tanto crédito en tantos lugares?
Cháchara pseudocientífica y tercer grado de tapadillo.
A grandes rasgos, los defensores del uso del polígrafo como máquina de la verdad dicen que el hecho de mentir provoca en las personas un estrés de un tipo particular. Que las señales de este estrés se pueden detectar mediante diversos medios, siendo los más clásicos la conductancia cutánea y la presión arterial. Y que estas señales se pueden normalizar y parametrizar en una serie de indicadores capaces de separar la verdad de la mentira.
El problema radica en que, de todas estas aseveraciones, sólo una pasa la prueba del método científico: que el estrés, si se produce, se puede detectar. Pero no es cierto que mentir provoque estrés en todo el mundo, y mucho menos de un tipo particular; a decir verdad, los mejores mentirosos mienten con completa naturalidad. Tampoco es cierto que estas señales sean normalizables; de hecho, no hay un solo documento validado científicamente que determine con claridad los niveles y umbrales que separen la verdad de la mentira. Todo queda en manos de la interpretación del equipo humano que maneja la máquina. Lo que se aleja irremisiblemente de la ciencia para convertirse en un arte o, más probablemente, una pseudociencia.
En realidad, el polígrafo no es más que una técnica de interrogatorio bajo presión; un tercer grado blando. El Presidente de los Estados Unidos Richard Nixon lo resumió muy bien:
"De los detectores de mentiras, yo sólo sé que cagan de miedo a la gente."
Bajo presión, las personas cometen errores más fácilmente, y son más proclives a sentirse acorraladas y confesar de manera espontánea o al menos reconocer hechos que les perjudiquen. Por desgracia, esto también ocurre con los inocentes: las preguntas sobre un delito o cualquier otro acto equivalente pueden estresarlas con facilidad, incluso más que a los culpables, especialmente si por cualquier motivo conllevan una elevada carga emocional. La Academia Nacional de Ciencias de los Estados Unidos calculó en 2003 que el polígrafo declara mentirosos, como mínimo, al 16% de las personas que dicen la verdad; y que cada identificación correcta de un mentiroso conlleva cientos de identificaciones falsas contra los inocentes. Específicamente, determinaron que el 99,6% de los positivos son falsos positivos.
En realidad, el polígrafo no está en condiciones de ofrecer mayor precisión que el mero azar. El lanzamiento de una moneda al aire para decidir a cara o cruz si alguien miente o no es exactamente igual de eficaz. Esto produce dos víctimas: la persona injustamente sometida a un procedimiento de presión que no sirve para nada, y quien paga cientos o miles de euros a las empresas que viven de este fraude. Que es, simplemente, víctima de una estafa. En los países en que estas pruebas son aplicadas por el estado, se trata también de una estafa a todos los contribuyentes y una peligrosa deriva a la arbitrariedad totalitaria, similar a las ordalías de otras épocas. E igualmente inútil.
Por otra parte, el polígrafo produce una falsa sensación de seguridad. Una vez alguien ha pasado la prueba con éxito, ¿cómo dudar de él, o de ella? Exactamente así los espías mencionados anteriormente lograron llegar a ámbitos que nunca habrían alcanzado sin esta falsa seguridad de sus superiores. Este fue el caso de Ana Belén Montes que, amparada en los excelentes resultados de las pruebas poligráficas y su indudable valía personal, alcanzó rápidamente el puesto de analista jefe en asuntos cubanos de la Agencia de Inteligencia de la Defensa norteamericana... mientras enviaba copia de todo a Fidel hasta ser descubierta en 2000 por otros medios.
Por no hablar de Aldrich Ames, un individuo inestable y a todas luces de poco fiar, que se ofreció a trabajar para los rusos a cambio de dinero por el sencillo procedimiento de visitar la Embajada Soviética en Washington. Aunque sus superiores de la CIA sabían que el hombre no andaba muy fino, y que llevaba un tren de vida impropio para su salario, le consideraban de confianza porque superó sin problemas las pruebas del detector de mentiras. Gracias a sus informes, el KGB desactivó completamente la infraestructura del espionaje norteamericano en la URSS, con la captura de más de cien agentes y la ejecución de al menos diez de ellos. Tras el colapso de la URSS y otra prueba de polígrafo pasada con éxito, Ames siguió trabajando tranquilamente para Rusia hasta 1994, cuando fue capturado por el FBI mediante métodos convencionales. Evitaremos cebarnos con la historia de Karel Koecher, pues Koecher era un maestro de espías, y esos tienen sus propios rasgos de genialidad.
De juerga con el detector de mentiras.
Con frecuencia, los científicos norteamericanos de alto nivel son sometidos obligatoriamente a pruebas del polígrafo cuando tienen alguna relación con materias sensibles. Eso les cabrea de un modo particular, pues para quienes saben bien que no es más que un fraude, constituye a todas luces una humillación. Sin embargo, una parte de ellos se lo toman a cachondeo, y aprovechan la ocasión para hallar nuevas maneras de burlarlos y enloquecer a sus operadores. O, simplemente, para pasar la prueba sin contar absolutamente nada de sí mismos.
Las técnicas que usan son muy variadas: falsear las reacciones corporales en las preguntas de control, sobrerreaccionar en todas las respuestas o en una parte de ellas al azar, confundir la secuencia lógica del interrogatorio... mil cosas. En realidad, no hace falta nada tan complicado. Basta con tener claro que el operador del polígrafo no es tu amigo sino un interrogador que exagera la efectividad de la máquina, no ofrecer jamás una respuesta incriminatoria, y seguir el consejo del KGB a Aldrich Ames cuando pidió instrucciones a sus especialistas sobre la manera de superar la prueba:
"...duerme bien, acude descansado y relajado. Sé amable con el operador del polígrafo, establece una buena relación, muéstrate cooperativo y no pierdas la calma."
¿Por qué se sigue usando a pesar de todos estos fracasos y los informes en contra de la Academia Nacional de Ciencias, de la Oficina de Asesoramiento Tecnológico del Congreso y de la Asociación Psicológica Americana? En el sector privado, fundamentalmente, por credulidad y simple fraude empresarial. En las agencias de inteligencia norteamericanas, sobre todo, porque abandonarlo implica el ridículo de la organización y equivaldría a reconocer que algunos viejos amigos y colaboradores no son más que unos estafadores. Pronto, alguien haría preguntas sobre el lugar a donde fue a parar todo el dinero gastado en esos medios espurios, y quién tomó semejantes decisiones.
La pregunta, en realidad, no es si el polígrafo usado como detector de mentiras sirve para algo o no. Eso está claro. La pregunta es cuánta gente inocente habrá sido perseguida, despedida, apartada o incluso condenada mediante un instrumento que, bajo su apariencia falsamente científica, no es en nada mejor que las ordalías de la Inquisición. Sólo un poco más civilizado.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Con mucha frecuencia, el progreso del conocimiento humano se vincula con las alturas. Desde que el primer humano se sobrecogió ante el extraordinario espectáculo de una bóveda celeste llena de estrellas, los dioses quedaron establecidos en las regiones del cielo. Muchos milenios después, la ciencia y la tecnología también arrancarían su historia estudiando los fenómenos celestes, tanto por razones prácticas de calendario y navegación, como por esa emoción profunda que nos hace alzar los ojos hacia arriba cuando acechamos lo mejor de nostros mismos.
Las profundidades, en cambio, siempre quedaron relacionadas con la muerte y la ciénaga, con las fuerzas oscuras y telúricas que preferimos ignorar. Allá fueron a parar todos los inframundos y, cómo no, las fuerzas diabólicas. El suelo que pisamos nos inquieta. No nos fiamos de él. Hay quien hasta siente rechazo a tocarlo con las manos. En general, siempre hemos vivido de espaldas a aquellas cosas que se ocultan bajo la tierra y el mar, pero sobre todo bajo la tierra. Lugar de monstruos, de demonios. Hic sunt dracones. ¿Sabrías tú hacer un esquema sencillo de lo que hay bajo el suelo de tu casa?
Y sin embargo, el estudio del suelo y del subsuelo fue objetivo de una de las ciencias más antiguas: la geología. Desde el principio, la geología tuvo una vertiente práctica, relacionada con la minería, la búsqueda de recursos naturales y la cimentación arquitectónica. Pero también, desde hace mucho tiempo, la geología viene proporcionándonos pistas fundamentales sobre la manera en que se formó nuestro sistema solar, nuestro planeta y la vida en la Tierra. Fue la geología quien nos aportó los primeros indicios de la verdadera edad y evolución del universo y de la vida. Es la geología quien nos permite mantener en marcha las sociedades industriales desarrolladas, mediante la prospección y explotación de los recursos necesarios para su subsistencia. La geología es mucho más que una colección de piedrecitas.
La geología nos cuenta cómo y de qué está hecha la Tierra, y de paso nos apunta cómo y de qué están hechos otros mundos. Gracias a ella sabemos que este es un planeta vivo, con un núcleo ardiente de hierro y níquel tan caliente como el Sol, un grueso manto de roca viscosa no mucho más frío, y una estrecha e inestable corteza de continentes a la deriva sobre ese mar de fuego donde alienta todo lo que amamos. Esta corteza quebradiza no tiene más de setenta kilómetros de profundidad, en un planeta con más de 12.000 km de diámetro.
La ciencia, antes de validar una hipótesis para convertirla en teoría, tiene la obligación de verificarla por todos los medios posibles. Y aunque esta estructura interna de la Tierra está bien demostrada mediante numerosos métodos indirectos, hacía y hace falta echar un vistazo en profundidad, literalmente. Gracias a la minería, desde antiguo se conocen algunas de las propiedades de esta corteza, y el hecho de que la temperatura y la presión aumentan constantemente con la profundidad. Pero nunca nos ha bastado con eso. Teníamos que mirar, y de paso descubrir unas cuantas cosas más por el camino. La manera más lógica de hacerlo era cavar un agujero. Un agujero muy grande.
Un agujero hacia el infierno.
Los espeleólogos han llegado hasta 2.080 metros de profundidad en la Cueva de Voronya (Georgia), que es la gruta más profunda conocida. Y los mineros del oro sudafricano bajan con frecuencia a 3.500 metros. Pero nadie había llegado nunca más abajo. Así que, en 1962, la Unión Soviética puso en marcha el primer gran proyecto de exploración del espacio interior profundo, con una perforadora situada en la Península de Kola. Su barrena Uralmash-4E mordió el suelo por primera vez el 24 de mayo de 1970, con el propósito de llegar a quince kilómetros de profundidad, allá en el lejano Ártico. No muy lejos de donde Julio Verne iniciara su viaje al centro de la Tierra.
Costó nueve años batir el récord precedente: la perforación Bertha Rogers de Oklahoma, realizada por la compañía petrolera GHK en busca de hidrocarburos, sin hallarlos. A 9.583 metros de profundidad, los geólogos norteamericanos se habían encontrado con una presión enorme, de 1.700 atmósferas; momento en que la barrena topó con un depósito de azufre ardiente y resultó destruida.
Pero la Uralmash de los científicos de Kola sobrepasó este récord el 6 de junio de 1979, para luego proseguir su camino hacia el manto terrestre. En 1983 la perforadora alcanzaba la marca de los doce kilómetros, tras la cual estaba prevista una pausa de un año para realizar ajustes y mejoras. Aparentemente, esta pausa no le sentó bien a la maquinaria: poco después de reanudar la penetración, el 27 de septiembre de 1984, una sección de cinco kilómetros de taladradora se partió sin posibilidad de recuperación alguna a semejantes profundidades: 12.066 metros bajo la superficie terrestre.
La perforación se reiniciaría poco después, partiendo de nuevo desde los 7.000 metros. En 1989 alcanzaron 12.262, momento en que se encontraron temperaturas de 180ºC en vez de los 100ºC que se esperaban a esa profundidad. Aunque por aquel entonces aún mantenían la idea de llegar a 13.500 en 1990 y su meta de 15.000 en 1993, finalmente decidieron modificar el proyecto: proseguir habría implicado trabajar a más de 300ºC, por encima de las posibilidades incluso de las nuevas perforadoras Uralmash-15000, más o menos como en la superficie de Venus. Así que, en vez de eso, comenzaron a realizar nuevos agujeros de mayores y mejores prestaciones.
Así quedó establecido el récord de la máxima profundidad alcanzada jamás por la especie humana: 12.262 metros, que sigue sin batir hasta la actualidad.
Los logros científicos.
Además del desarrollo de estas perforadoras especiales como nunca se habían diseñado, la Perforación Superprofunda de Kola obtuvo una colección única de muestras geológicas jamás vistas que retroceden hasta una antigüedad de 2.700 millones de años. Esta colección se conserva actualmente en Zapolyarny, diez kilómetros más al sur, a disposición de la comunidad científica internacional.
Otro descubrimiento de gran importancia fue constatar que las zonas de discontinuidad sísmica no se correspondían con áreas de transición del granito al basalto, como se pensaba antes; sino que se deben a capas metamórficas empapadas de agua entre cinco y diez kilómetros de profundidad. Esto no sólo es muy relevante para el estudio de los terremotos, sino también para las prospecciones petrolíferas y gasísticas del mundo entero. También se hallaron grandes cantidades de hidrógeno, imprevistas hasta el momento.
A partir de 1995, el proyecto se transformó en un completo laboratorio de geología superprofunda, que constituye aún hoy en día la principal fuente de conocimiento sobre las cosas que se esconden debajo de nuestros pies. En él se realizan estudios geofísicos, petrológicos, geocronológicos, minerológicos, geoquímicos, petrofísicos, sismológicos y de estudio de los terremotos y de la seguridad en minería y extracción de gran profundidad.
En la actualidad, un proyecto internacional –el IODP– trata de alcanzar profundidades similares partiendo del fondo de los océanos, donde la corteza es mucho menos gruesa.
La Perforación Superprofunda de Kola protagonizó otra de las grandes carreras de la Guerra Fría, aunque esta no tuvo rival. Tales carreras abrieron un mundo de exploración no sólo hacia el cosmos y los océanos, sino también hacia el centro de la Tierra; hazañas pioneras cuya importancia sólo ahora comenzamos a comprender.
Edición del 09/08/2009: sí, este es el mismo "pozo infernal" donde una serie de publicaciones evangélicas afirmaron que se habían escuchado las "voces de los condenados". Naturalmente, toda esa historia es un fraude. Nunca existieron tales micrófonos, nunca hubo ningún "pánico" en la URSS al respecto (ni en ninguna otra parte), y en general constituye una invención para almas cándidas y sobre todo muy crédulas. El lugar tampoco está en Siberia, por cierto, sino en la Rusia europea.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Ya antes del alunizaje del Apolo 11, en 1969, tanto los Estados Unidos como la Unión Soviética comprendieron que los primeros beneficios prácticos de la exploración espacial se obtendrían en las órbitas más próximas a la Tierra. A fin de cuentas, ahí es donde se pueden hacer la mayor parte de las cosas de interés cotidiano para el ser humano común, civiles o militares. Por ello, ambas superpotencias dedicaron grandes recursos a la conquista del espacio próximo, menos llamativa que las grandes misiones científicas hacia otros astros y hacia el espacio profundo pero mucho más productiva en términos de beneficio inmediato: telecomunicaciones, navegación, meteorología y climatología, prospecciones de los recursos terrestres, estudios del ecosistema y de los cultivos, reconocimiento y espionaje… las mil cosas en que la astronáutica ha cambiado nuestro mundo.
Las regiones próximas a nuestro planeta son también óptimas para el lanzamiento de importantes observatorios científicos, como el conocido telescopio espacial Hubble y otros cientos de satélites parecidos que llevan ya varias décadas aportándonos conocimientos sobrecogedores sobre la naturaleza del universo desde las muy cortas distancias hasta las muy inmensas. Las misiones al espacio cercano son la apuesta más factible en el estado presente de la tecnología humana, al igual que en otro tiempo conquistamos mares como el Mediterráneo mucho antes de lanzarnos a los océanos.
Por ello la URSS, tras los espectaculares éxitos de los años ’60 y ’70 –y el fracaso en la Luna– optó por un complejo programa de estaciones espaciales en órbita baja que le asegurara el desarrollo de las tecnologías necesarias para operar en estas distancias cortas. Alrededor de los programas Salyut y de la mítica Mir, los soviéticos crearon una sofisticada infraestructura de ciencia, ingeniería, cohetería, construcción de cosmódromos, cosmonáutica en general y todo lo necesario para el dominio del espacio cercano. Gracias a ello, sus herederos siguen dominando con soltura el mercado de lanzamientos comerciales, con unos precios, una seguridad y una eficiencia aún imbatibles.
Los Estados Unidos, tras su espectacular éxito en la Luna –y el fracaso, hasta entonces, en casi todo lo demás– prefirieron una combinación de cohetería convencional con un concepto innovador y fascinante: el transbordador espacial. El transbordador espacial, que ellos llaman space shuttle, es una especie de avión carguero reutilizable y capaz de operar en las órbitas más cercanas a la Tierra. O, visto de otra manera, una pequeña estación espacial no permanente, muy flexible, que permite desarrollar un gran número de tareas. Quizá por su parecido a las naves cósmicas del cine y la literatura, el transbordador cautivó de inmediato la imaginación de millones, incluyendo a los soviéticos, que crearon su propia versión: el Buran. Ahora, todo el mundo se permite criticar el concepto por caro, inseguro, delicado y poco disponible. Ya dicen que los mediocres siempre saben por dónde no se podía pasar cuando el puente se ha roto.
Un fiasco genial.
El transbordador espacial consiste, esencialmente, en una nave tripulada con siete ocupantes y la posibilidad de transportar veinticuatro toneladas y media de carga a una órbita baja; o casi cuatro, con destino a órbitas geoestacionarias. Esta nave, parecida a un aparato convencional, lleva tres motores-cohete de hidrógeno-oxígeno que se alimentan del depósito principal durante el lanzamiento. Este depósito principal, normalmente de color naranja, constituye el componente más visible de todo el conjunto; la nave va montada sobre el mismo. A ambos lados del tanque, se encuentran los dos impulsores de combustible sólido (SRB). Entre los tres motores de la nave y los dos impulsores de combustible sólido suman unos treinta millones de newtons de empuje, que se podrían traducir un poco a lo bruto como dieciséis millones de caballos.
Cuando lanzan el transbordador, los cinco motores actúan a toda potencia durante los dos primeros minutos. Entonces, los impulsores laterales de combustible sólido se agotan y se separan; caen con paracaídas al océano, donde los recuperarán para futuras misiones. Con eso, el transbordador pierde más del 80% de su potencia, pero ya se encuentra a 46 kilómetros de altitud. Los tres motores que lleva la nave arden durante unos seis minutos más, antes de quedarse sin combustible y apagarse. En ese momento, el gran depósito se separa, ya en el espacio. Cae y se desintegra al reentrar en la atmósfera terrestre mientras que la nave, con todo ese impulso, completa su recorrido hasta la órbita adecuada a unos 28.000 km/h. Una órbita terrestre es el lugar y velocidad exactos en que una nave se mantiene en equilibrio entre la fuerza centrífuga producida por su velocidad y la gravedad de nuestro planeta, sin necesidad de ninguna propulsión adicional. Allí se queda, en gravedad cero (pues está equilibrada con la fuerza centrífuga), dando una vuelta a la Tierra cada 90 minutos aproximadamente.
Si fallara el lanzamiento, la nave se desprendería del depósito y los impulsores para intentar un aterrizaje de emergencia en Zaragoza (España), Morón (España), Fairford (Reino Unido) o Istres (Francia). Esto no se ha hecho nunca.
Tras varios días de trabajo en el espacio, la nave utilizará sus pequeños impulsores de maniobra para romper este equilibrio orbital y caer de nuevo hacia la atmósfera. Después de una serie de maniobras brutales que ponen a prueba su escudo de losetas de cerámica, pues la temperatura alcanza más de 1.500ºC, perderá velocidad suficiente como para completar la reentrada sin abrasarse. Sin propulsión alguna, la nave se convierte entonces en un planeador de cien toneladas que sólo tiene una oportunidad para aterrizar. Suele hacerlo en las grandes pistas del Centro Espacial Kennedy (Florida) o la Base Aérea Edwards (California). Existen muchos puntos de aterrizaje de emergencia por todo el mundo, pero nunca se han tenido que utilizar. Uno de estos se encuentra en el Aeropuerto de Gran Canaria.
La NASA construyó un prototipo (el Enterprise) y cinco naves operativas llamadas Columbia, Challenger, Discovery, Atlantis y Endeavour para realizar un total de 134 misiones, con un coste estimado de 170.000 millones de dólares de 2008. Es decir, unos mil quinientos millones de dólares por misión; la NASA suele dar una cifra de 450 millones de dólares que no incluye los costes de desarrollo y construcción de las naves. Los rusos cobran unos 300 millones por un lanzamiento equivalente… incluyendo cohete y nave, y además obteniendo beneficio.
Peor aún: dos de las cuatro naves originales se han perdido con todos sus ocupantes; hubo que construir el Endeavour a toda prisa para mantener activo el programa. De los diecinueve astronautas y cosmonautas muertos en vuelo a lo largo de toda la historia, quince son norteamericanos. Catorce de ellos murieron a bordo de un transbordador espacial: tres cuartas partes de todas las personas perdidas en el cosmos.
El Desafiador y la profe.
Pero en 1983, todo esto estaba aún por suceder. Estados Unidos era todavía optimista y orgulloso; su programa espacial lo reflejaba a la perfección. Apenas catorce años atrás, asombraron al mundo con el primer aterrizaje tripulado en la Luna. Y aunque el programa Skylab que pretendía competir con las estaciones espaciales soviéticas pasó sin pena ni gloria, sólo dos años antes la NASA lograba enamorar al mundo otra vez con aquella nueva nave tan parecida a las de la ciencia-ficción. El Columbia, que así se llamo el primer transbordador, parecía la solución evidente a todos los problemas de la exploración espacial cercana a la Tierra. En el calor del éxito, se dijeron muchas cosas exageradas, y algunas insensatas.
El segundo se llamó Challenger, el Desafiador, en memoria de la fragata británica que inició la exploración moderna de los océanos un siglo antes. Se trataba de un prototipo de diseño transformado en nave operacional, superando las deficiencias del Columbia y utilizado como modelo para los tres que se construirían con posterioridad. Llevaba protección térmica mejorada, electrónica mejorada, un HUD para facilitar el aterrizaje y 1.100 kg más de capacidad de carga.
El 4 de abril de 1983, el Challenger despegaba por primera vez para la misión STS-6. Fue un éxito completo, con unos resultados mucho mejores que los del Columbia. Por ello, se convirtió en un verdadero mulo de carga para la NASA, un valor seguro, incluso tras la construcción del Discovery en 1984 y el Atlantis en 1985. Se le asignaron tres misiones al año, un número excepcional teniendo en cuenta la pobre disponibilidad de los transbordadores. Llevó al espacio a la primera mujer norteamericana y al primer hombre negro. Desde él se realizó el primer paseo espacial autónomo. Fue tres veces al Spacelab, que quería ser como una Salyut. Puso varios satélites científicos y de telecomunicaciones en órbita.
Entonces Reagan anunció un programa llamado Profes en el Espacio, que debería cautivar de nuevo las mentes más jóvenes e inquietas de los Estados Unidos hacia la exploración espacial mediante una serie de clases dadas desde el cosmos por los mejores profesores del país. El programa se hizo inmensamente popular. Se recibieron más de 11.000 solicitudes de maestros para participar. La primera elegida fue Christa McAuliffe, una profe de instituto de 34 años que enseñaba historia y ciencias sociales en New Hampshire y desde niña soñó con volar más allá.
La profe espacial se convirtió en un éxito mediático instantáneo, con su entusiasmo contagioso y su manera sencilla de transmitir la ciencia y la cultura. Participó en los programas de televisión más populares de América, apareció en todas las portadas, las escuelas de Estados Unidos se llenaron de pósteres con su cara. Los colegios del país seguirían el lanzamiento y sus clases desde el cosmos a través de un circuito cerrado de TV instalado por la NASA. La CNN retransmitiría el lanzamiento en directo desde el Centro Espacial Kennedy, y eso que era una época en que el interés por la astronáutica ya había comenzado a decaer entre el gran público. Profes en el Espacio fue un éxito instantáneo incluso antes de comenzar.
Para una misión tan visible, la NASA eligió inevitablemente la mejor y más segura de sus máquinas: el transbordador Challenger. Casi toda la tripulación estaba compuesta por astronautas veteranos, que ya habían volado antes. La misión STS-51-L pondría en órbita un satélite de telecomunicaciones, otro de investigación científica, y realizaría una serie de experimentos espaciales. Pero era, sobre todo, el vuelo de Christa; la Profe del Espacio que toda América conocía y adoraba ya.
No es oro todo lo que reluce.
La dirección de la NASA no dejaba de ser consciente por aquel entonces de que tanto el concepto como el diseño del transbordador adolecía de varios problemas graves. Uno de estos problemas afectaba a los grandes cohetes impulsores de combustible sólido que hay a ambos lados del depósito principal, construidos por Morton Thiokol. Específicamente se trataba de los llamados “anillos-O”, unas juntas de goma especial que sellan la cámara de combustión mientras mantienen la flexibilidad estructural, de manera muy parecida a como lo hace la goma de una olla a presión. Y, al igual que éstas, poco flexibles y menos estancas cuando están frías.
Aún peor: debido a problemas en la misión anterior, este vuelo del Challenger ya se preparó con retraso. Debía lanzarse el 22 de enero, pero no estaba listo hasta el 24. El mal tiempo sobre Florida y también sobre las pistas de aterrizaje de emergencia en distintos lugares del mundo obligó a retrasarlo aún más, hasta la mañana del 27. El entonces vicepresidente George Bush (padre) anunció que haría una escala para ver el lanzamiento durante su viaje a Honduras, lo que muchos interpretaron como una presión adicional. Tanto la NASA como el transbordador acumulaban ya fama de problemas y retrasos, más o menos difundida por parte de sus oponentes políticos; el vuelo de Christa se estaba convirtiendo rápidamente de sueño publicitario en desastre de relaciones públicas. Entonces, un fallo técnico obligó a posponer aún más el lanzamiento, hasta primera hora del 28 de enero.
El informe meteorológico avisaba que aquella mañana sería fría como pocas en Florida, con temperaturas de un grado bajo cero. Además se detectó viento a gran altitud, lo que forzaría al máximo la flexibilidad estructural de los impulsores. Varios ingenieros de Morton Thiokol y de la NASA expresaron dudas sobre el comportamiento de los anillos-O en esas condiciones. Pero la dirección de Thiokol se hallaba presionada por la dirección de la NASA para que diesen el visto bueno, ya que la dirección de la NASA recibía a su vez presiones cada vez más fuertes desde Washington y desde los medios de comunicación. Cuando se recibió la orden de proceder con el lanzamiento, los ingenieros de Rockwell, el contratista principal, quedaron horrorizados. Aunque los equipos de la NASA habían estado retirando hielo toda la noche, éste seguía formándose sin parar en la plataforma de lanzamiento y en la nave. Temían que algún fragmento se separase durante la ignición y la dañara.
Finalmente, cuando el hielo parecía ya fundirse por si solo, el director de la misión Arnold Aldrich dio el visto bueno para las 11:38 de la mañana. La mitad de las escuelas de los Estados Unidos se prepararon para verlo en directo desde clase, y mucha gente sintonizó la CNN. Todo estaba listo para la catástrofe.
Obviously a major malfunction.
La misión STS-51-L del transbordador espacial Challenger se inició como había quedado establecido a las 11:38 AM del 28 de enero de 1986. Los cinco grandes motores se activaron sobre la plataforma 39B del Centro Espacial Kennedy, y la nave quiso elevarse sin novedad.
Sin embargo, el cohete de estribor dejó escapar por un lado unas volutas de humo negruzco; claro indicador de que la hermeticidad de la junta de goma estaba comprometida. Pero antes de que nadie se planteara cancelar el despegue, un fragmento de combustible sólido fue a parar allí y lo selló de nuevo. En apariencia, los anillos-O habían permanecido rígidos en los primeros momentos debido al frío, lo que permitió la fuga, pero al calentarse pasaron a cumplir su función normalmente.
Nada más lejos de lo que estaba sucediendo en realidad. Las superficies de contacto de los anillos rígidos por el frío se habían quemado y degradado con la primera vaharada de gases ardientes. Sólo el fragmento de combustible caído allí por azar mantenía sellado el conjunto, y lo hizo durante los siguientes 36 segundos. Entonces, todavía a apenas 3.300 metros de altitud, un fuerte golpe de viento sacudió la nave. Las estructuras articuladas se tensaron y retorcieron con fuerza, haciendo que se soltara el fragmento. Ahora, ya nada contenía los gases ardientes del cohete de estribor. El Challenger estaba condenado, pero nadie lo supo aún.
Poco después, la tripulación redujo la potencia de los motores para superar la región de máxima presión dinámica. Esta es una zona, a unos 11 km de altitud, en que la densidad del aire es demasiado alta para sobrepasarla a toda la velocidad posible. Quizá por ello, el motor dañado aguantó aún un poco más.
A los 58 segundos del lanzamiento, las cámaras captaron un a modo de soplete en el cohete de estribor, pero nadie se dio cuenta en ese momento. Los gases ardientes estaban escapando de la cámara de combustión y atacando el gigantesco depósito central de hidrógeno y oxígeno, extremadamente volátiles. El motor perdió presión. Seis segundos después, este soplete perforó el tanque principal y su presión se puso a caer también. Pero los ordenadores de a bordo compensaron ambos hechos con tanta diligencia que ninguno de los ocupantes se dio cuenta, ni tampoco el control de tierra.
A los 68 segundos, el control de tierra comunicó al comandante Dick Scobee que habían sobrepasado la zona de máxima presión dinámica y podía acelerar a toda potencia otra vez. Su respuesta, “recibido, acelerando”, fue la última comunicación desde la nave espacial Challenger.
Habían transcurrido 72 segundos desde el lanzamiento cuando los soportes quemados por el "soplete" del cohete de estribor fallaron completamente. Éste comenzó a separarse, y entonces el depósito principal reventó también por su parte inferior. Un segundo más, a 14.600 metros de altitud, y el Challenger con sus siete ocupantes se retorció y desintegró en medio de una gran deflagración de vapor mientras los cohetes arrancados de cuajo maniobraban fuera de control ante los ojos espantados de quienes seguían el acontecimiento por televisión. Entre ellos, millones de niños y sus maestros, en sus escuelas por toda la Unión. El comentarista de la NASA, Steve Nesbitt, pronunciaba entonces sus famosas palabras con voz ahogada:
“Los controladores de vuelo están estudiando muy cuidadosamente esta situación… obviamente se trata de una avería mayor (obviously a major malfunction)… no tenemos enlace de datos…” Tras una pausa, se rindió por fin: “Tenemos un informe del oficial de dinámica de vuelo… el vehículo ha explotado.”
Se dice que los astronautas no murieron en ese momento. Que algunos de los módulos de oxígeno de emergencia fueron activados manualmente. Que quizá el comandante Dick Scobee tratara de luchar aún con una nave destruida sin alas ni motores ni siquiera fuselaje. Pero la cabina estaba despresurizada, a bordo no podía quedar presión ni electricidad de ninguna manera, y se precipitaron al mar desde quince kilómetros de altitud. Tras el impacto contra las olas, sólo hubo silencio.
Las consecuencias.
La Comisión Rogers creada por el Presidente Reagan para investigar la catástrofe determinó bien los aspectos técnicos de la misma y los errores en las decisiones que condujeron al lanzamiento. También establecieron que el programa de lanzamientos era poco realista para una nave con una disponibilidad tan baja. Sin embargo, la Comisión del Congreso de los Estados Unidos llegó mucho más allá:
“…el problema subyacente que condujo al accidente del Challenger no fue una comunicación pobre [entre el personal técnico] o los fallos en los procedimientos, como concluyera la Comisión Rogers. De hecho, el problema fundamental fueron las pobres decisiones técnicas tomadas por la dirección de la NASA y de las empresas contratistas, que no actuaron decisivamente para resolver las anomalías cada vez más serias en los impulsores de combustible sólido…”
Los transbordadores estuvieron dos años sin volar, arruinando el programa completo para mucho tiempo. La NASA introdujo muchos cambios en su estructura y en su sistema de toma de decisiones, que no perduraron demasiado; el desastre del Columbia que se cobró la vida de otros siete astronautas en 2003 fue la más evidente de las pruebas al respecto. En la actualidad, el accidente del Challenger se estudia en muchos campos: ingeniería de seguridad, ética tecnológica, comunicación en organizaciones o toma de decisiones conjuntas. Y también como ejemplo de los peligros del pensamiento grupal, ese en el que todo el mundo es proclive a mostrarse de acuerdo para no parecer un rebelde que provoca conflictos.
El accidente del transbordador espacial Challenger fue un referente cultural para toda una generación. Las imágenes de la nave espacial norteamericana desintegrándose una y otra vez en las televisiones de todo el mundo avergonzaron a los Estados Unidos y permitieron que los políticos contrarios al programa espacial hicieran su agosto. Desde entonces, ya nada fue igual. La sociedad se tornó crítica y ácida al respecto, normalmente por pura ignorancia… pero es que las imágenes eran poderosas.
El desastre del Challenger y el colapso de la Unión Soviética cinco años después terminaron con la primera gran era de la exploración espacial. La astronáutica, por el momento, ha dejado de ser el sueño más esperanzador de la humanidad. El público la ignora. Nadie se atreve a tomar decisiones que trasciendan del ámbito comercial.
Y, sin embargo, tarde o temprano alguien tomará el relevo. Pues como dijo Konstantin Tsiolkovsky, padre de la cosmonáutica, la Tierra es la cuna de la humanidad, pero uno no puede vivir en la cuna para siempre. Las naves de la especie humana se adentrarán en el espacio otra vez. La cuestión es, simplemente, cuándo. Y quién.
Por imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del correo electrónico o en el nuevo blog.
Por
imposibilidad de atender dos blogs a la vez, los comentarios en este
quedan cerrados. Puedes ponerte en contacto conmigo a través del
correo electrónico o en el nuevo blog.