Elaborado por Materia para OpenMind Recomendado por Materia
25
Inicio Los ordenadores y la exploración espacial
Artículo del libro Fronteras del conocimiento

Los ordenadores y la exploración espacial

Tiempo estimado de lectura Tiempo 25 de lectura

La puesta en órbita por parte de la Unión Soviética de dos satélites Sputnik en el otoño de 1957 fue una conmoción para muchos estadounidenses. Aunque para los servicios de inteligencia de Estados Unidos no supuso una sorpresa, sí lo fue para los ciudadanos de a pie, y los lanzamientos demostraron, más allá de toda duda, que la Unión Soviética llevaba la delantera a Estados Unidos no sólo en la construcción de satélites, sino también de cualquier cohete impulsor, capaz además de transportar armamento. Entre las reacciones de Estados Unidos al Sputnik estuvo la creación de dos agencias, una de ellas dependiente del Departamento de Defensa, la otra civil. La primera se llamó Advanced Research Projects Agency (Agencia de proyectos de investigación avanzada) o ARPA, recientemente más conocida como DARPA. La misión del ARPA era clara: apoyar investigación a largo plazo que garantizara que Estados Unidos no fuera cogido nunca más desprevenido como lo estaba en el momento del lanzamiento de los Sputnik. Unas de sus áreas de investigación eran los misiles y la exploración espacial; a finales de 1958 el grueso de esta tarea fue transferido a otra agencia, de control civil: la National Air and Space Administration o NASA (Norberg y O’Neil 1996).

En los cincuenta años que siguieron a su creación ambas agencias acumularon un número notable de logros, pero sin duda los más importantes fueron dos: a principios de la década de 1960 DARPA diseñó y puso en funcionamiento una red de ordenadores conocida como ARPANET, que fue la inspiración técnica de lo que hoy es Internet. Por su parte la NASA, en respuesta a un desafío planteado por John F. Kennedy en 1961, consiguió enviar con éxito entre 1969 y 1972 a una docena de astronautas a la Luna y hacerlos regresar sanos y salvos.

Mediada la década de 1990 Internet pasó rápidamente de ser una red conocida sólo para los informáticos y otros especialistas a una herramienta al alcance del ciudadano medio del mundo industrializado. En Estados Unidos, la cadena de televisión sin ánimo de lucro Public Broadcasting

Service produjo un programa que constaba de varios capítulos para documentar el ascenso meteórico de este fenómeno tecnológico. Recibió el caprichoso título de «Nerds 2.0.1.: A Brief History of the Internet» (Pitagorines 2.0.1.: breve historia de Internet) (Segaller 1998). El título sugería que Internet era la creación de estos pitagorines o locos por los ordenadores, en su mayoría hombres jóvenes, pocos de ellos de más de treinta años, cuya obsesión por los ordenadores dio lugar a este gigantesco fenómeno que ha cambiado nuestra realidad cotidiana. En casi todos los episodios del programa el narrador llamaba la atención sobre el contraste existente entre los logros de las dos agencias fundadas al mismo tiempo: Internet como heredera de la actividad de ARPA y la llegada del hombre a la Luna como resultado del trabajo de la NASA.

El núcleo del programa insistía en esta teoría. Afirmaba —con razón— que Internet desciende de ARPANET, una red informática diseñada y patrocinada por el ejército de Estados Unidos. Pero iba más allá, argumentando que los alunizajes eran tan sólo una hazaña aislada, con escaso o ningún impacto en la sociedad, mientras que Internet era una tecnología revolucionaria que afectaba, y afecta, las vidas de la gente corriente en todo el mundo.

Medio siglo después de la creación de estas dos agencias podemos repasar los logros alcanzados en informática y exploración del espacio y preguntarnos acerca de la relación entre las tecnologías implicadas en cada uno. Tanto en tecnología aeroespacial como en informática ha habido enormes progresos, pero el futuro no ha resultado ser del todo como muchos esperaban.

A finales de la década de 1960 muchos influyentes científicos informáticos predijeron que los ordenadores alcanzarían la «Inteligencia Artificial» (IA) y se convertirían en nuestros criados personales, tal vez incluso en compañeros (McCorduck 1979). Los escritores de ciencia-ficción adoptaron este tema para sus libros y retrataron ordenadores provistos de inteligencia artificial ya fuera como asistentes personales, como en el caso de los robots de la serie La guerra de las galaxias, o como nuestros enemigos, como el malévolo HAL en 2001: Una odisea del espacio. Pero a pesar de lo recurrente del tema, no llegó a suceder en la realidad. La inteligencia artificial continúa siendo una meta científica huidiza. Sin embargo, fuera de los estrechos confines de la comunidad de inteligencia artificial de científicos informáticos, este «fracaso» no parece preocupar a nadie. La razón es simple: la llegada del ordenador personal, de Internet, del teléfono inalámbrico y de otros avances tecnológicos han elevado el mundo de la informática a niveles que superan lo que muchos predijeron cuando el hombre pisó la Luna. No podemos conversar con ellos como lo haríamos con alguien de carne y hueso, pero estos sistemas presentan una cantidad sorprendente de lo que podríamos llamar «inteligencia», que procede más de su capacidad de procesar potencia y memoria que de su propósito intrínseco: ser un sustituto artificial del cerebro humano.

En el ámbito de la exploración espacial, las sucesivas misiones Apollo a la Luna generaron predicciones que nunca se hicieron realidad: estaciones permanentes en aquel planeta, hoteles en órbita, misiones a Marte tripuladas por seres humanos. Nada de esto ha sucedido aún y, sin embargo, los avances en tecnología espacial han sido verdaderamente notables. La Tierra está ahora rodeada de comunicaciones y los satélites meteorológicos forman parte de nuestra vida cotidiana. El Global Position System o GPS, así como sus proyectados equivalentes europeo y asiático, proporcionarán servicios de localización y de estimación de tiempo de desplazamientos precisos y baratos. Las sondas robóticas espaciales han iniciado una exploración de Marte y otros planetas lejanos que rivalizan con los viajes de expedición de cualquier época anterior. Los telescopios espaciales que operan en longitudes de onda visibles y no visibles señalan el inicio de una era que promete ser de las más emocionantes de la historia de la humanidad (Dick y Launius 2007).

En cuanto al campo de la informática, sólo los avances en la capacidad de memoria y poder de procesamiento, además del funcionamiento en red, han compensado con creces la imposibilidad de los ordenadores de pensar como los humanos. En el ámbito de la exploración espacial los avances arriba descritos no han eliminado la frustración por no haber conseguido establecer una presencia humana significativa fuera de nuestro planeta (en el campo de los aviones que vuelan dentro de los límites de la atmósfera terrestre, las últimas décadas han sido testigo de fracasos similares. A finales de la década de 1960 se rompió la barrera del sonido, pero, con excepción de unas pocas naves del ejército, la mayoría de los aviones sigue volando por debajo de esa barrera. Los aviones comerciales siguen volando a aproximadamente la misma velocidad y altitud que los primeros aparatos comerciales que entraron en funcionamiento en los años cincuenta del pasado siglo. El supersónico Concorde, aunque un prodigio de la técnica, fue un fracaso comercial y pronto estuvo fuera de servicio).

De ahí la tesis del programa de televisión: que la casi desapercibida red informática de ARPA hace palidecer los más espectaculares logros en aeronáutica y exploración del espacio de la NASA. Una opinión que muchos espectadores aparentemente compartían, por muchos argumentos en contra que adujeran la NASA y otros forofos del espacio.

Durante los últimos sesenta años la informática y la navegación espacial han estado estrechamente relacionadas y es prácticamente imposible estudiar sus trayectorias por separado. La invención de la computadora electrónica digital, que se produjo en varios lugares distintos entre 1940 y 1950, a menudo estuvo ligada a la resolución de problemas en los campos de la astronomía y la aerodinámica, o concebida para apoyar las tecnologías de diseño y producción de aviones, control de tráfico aéreo, armamento anti nuclear y, más tarde, desarrollo de misiles direccionados. Una de las fuentes de inspiración para la creación de ARPANET fue la necesidad de adaptar las redes de comunicación a la crisis de control de armamento desencadenada por el desarrollo de misiles balísticos y bombarderos a reacción. No se trataba únicamente de diseñar una red capaz de sobrevivir a un ataque nuclear, como afirman muchas historias que circulan por ahí; también respondía a la necesidad de poseer un sistema de comunicaciones que fuera lo suficientemente flexible y resistente como para adaptarse al nuevo entorno espacial que se abrió después de la Segunda Guerra Mundial (Abbate 1999).

A partir de 1945 e iniciada la Guerra Fría contra la URSS, la comunidad aeroespacial estadounidense empezó a disponer de grandes sumas de dinero procedente de los presupuestos de Defensa. Ello impulsó el desarrollo de la informática digital, que progresó en Estados Unidos mucho más que en Inglaterra, donde se habían diseñado las primeras computadoras dedicadas al descifrado de códigos, los primeros programas informáticos y el primer ordenador comercial. Parte de ese dinero se malgastó, pero el apoyo militar de Estados Unidos, dedicado en gran medida aunque no exclusivamente, al desarrollo aeroespacial, fue un poderoso motor para el avance tecnológico.

Por su misma naturaleza, un ordenador digital es un mecanismo de múltiples funciones. Si se puede diseñar un programa adecuado para él —esto es una condición imprescindible— entonces puede usarse para una gran variedad de tareas. Esta cualidad, descrita por primera vez en términos teóricos por el matemático inglés Alan Turing en la década de 1930, pronto diferenció al ordenador del resto de las máquinas, generalmente diseñadas y optimizadas para una única función. Así pues la navegación aeroespacial fue tan sólo uno de los campos en los que la informática encontró aplicaciones. La década de 1950 fue testigo de un aumento continuado en la potencia y la capacidad de memoria de los ordenadores, algo que sucedió paralelamente al desarrollo de programas de software de uso general, tales como el lenguaje de programación FORTRAN, y de otros específicos empleados para diseño asistido por ordenador (CAD), fabricación asistida por ordenador (CAM), análisis de esfuerzo y dinámica de fluidos.

A diferencia de las aplicaciones de la informática en, digamos, la banca o las finanzas, las de la aviación poseen una limitación añadida. Hasta aproximadamente 1960 los ordenadores eran de gran tamaño, frágiles y consumían grandes cantidades de energía. Eso restringía sus aplicaciones en la aviación al ámbito terrestre: reserva de vuelos, análisis de túneles de viento, CAD, CAM y procedimientos similares. El potencial del ordenador para convertirse en una máquina de uso universal en la industria de la aviación estaba, a juicio de Turing, lastrado por la necesidad de adaptarse a los rigores de la navegación aérea y espacial. La comunidad aeroespacial y militar, que en la década de 1950 en Estados Unidos disponía de enormes recursos económicos, estaba por tanto en condiciones de moldear el curso de la industria informática en sus años clave. A su vez, conforme los ordenadores ganaban en ligereza, manejabilidad y resistencia, la informática empezó a influir en el campo de la navegación espacial a lo largo de una década marcada por los rápidos cambios en la tecnología aérea (Ceruzzi 1989).

El transistor, inventado a finales de los años cuarenta del siglo pasado, fue el primer avance tecnológico que se enfrentó a problemas de tamaño, fiabilidad y peso. Fue necesario un largo periodo de desarrollo, sin embargo, antes de que el transistor con chip de silicio fuera lo suficientemente fiable como para permitir que los ordenadores se convirtieran en aparatos pequeños, resistentes y de bajo consumo. Los ordenadores transistorizados se incorporaron por primera vez a sistemas de direccionamiento de misiles alrededor de 1960. En 1959 dos ingenieros, Jack Kilby, de la compañía Texas Instruments, y Robert Noyce, de Fairchild Instruments, fueron un paso más allá y desarrollaron circuitos en los cuales se situaban en un solo chip de material (primero germanio, después silicio) varios transistores y otros componentes. Había nacido el circuito integrado o chip de silicio. Ni Noyce ni Kilby trabajaban entonces en la industria aeroespacial y, sin embargo, fueron las necesidades de esta industria las que determinaron la invención del chip de silicio. En los doce años que mediaron entre la invención del transistor y la del chip de silicio, las fuerzas aéreas estadounidenses emprendieron una campaña para mejorar la fiabilidad de los circuitos electrónicos en general. Por entonces la aviación estaba desarrollando misiles balísticos: armas por valor de un millón de dólares que en ocasiones explosionaban en la plataforma de lanzamiento debido al fallo en un componente electrónico de menos de un dólar de coste. La industria electrónica de la década de 1950 basaba sus modelos económicos en un mercado de consumo en el cual los bajos costes de fabricación y no la alta calidad era lo que garantizaba los beneficios. Los consumidores de la época simplemente aceptaban el fallo ocasional de alguno de los componentes, del mismo modo que hoy en día aceptan que sus ordenadores de vez en cuando se estropeen (Ceruzzi 1998, 177-206).

Para las aplicaciones aeroespaciales hubo que abandonar este modelo, ya que un fallo informático significaba que la nave podía estrellarse. La campaña de las fuerzas aéreas llamada «Alta fiabilidad», lanzada a finales de la década de 1950, consiguió este objetivo. Los fabricantes desarrollaron técnicas de control de calidad y cada paso de la fabricación se documentaba rigurosamente. Los aparatos se ensamblaban en «salas estériles» (inventadas en un laboratorio de armamento de Nuevo México), que eran más asépticas que una sala de quirófano. En ellas los trabajadores llevaban trajes que impedían que trozos de piel o de cabello contaminaran las piezas del montaje y había filtros para detectar la más mínima partícula de polvo. También en esta década los químicos desarrollaron formas de producir silicio ultra puro, en el cual se introducían cantidades mínimas y muy precisas de otros elementos con el fin de obtener un material con las propiedades electrónicas deseadas (un proceso llamado «dopaje»). Gran parte de esta actividad estaba localizada en lo que en otro tiempo fuera un valle agrícola al sur de San Francisco y que pronto fue bautizado Silicon Valley por un periodista local. La compañía Fairchild Semiconductor, donde trabajaba Robert Noyce, era el centro de aquella actividad creativa. Allí, además de desarrollar las técnicas de manipulado del silicio antes mencionadas, los ingenieros concibieron un método de fabricar transistores por medio de fotolitografía. Todos estos avances fueron anteriores a la invención del circuito integrado, pero sin ellos lo que siguió no habría sido posible.

El circuito integrado significaba que en un trozo de material se colocaba más de un mecanismo. Al principio el número de circuitos en un chip era pequeño, unos cinco o seis. Pero ese número empezó a duplicarse, primero una vez al año, después cada 18 meses aproximadamente. Este ritmo se ha mantenido desde entonces y recibe el nombre de Ley de Moore, por Gordon Moore, un colega de Robert Noyce en Fairchild responsable de sentar gran parte de los cimientos materiales que hicieron posibles los avances en la fabricación de chips (Moore 1965). Aquella ley (en realidad una observación empírica) ha impulsado desde entonces la informática y también su relación simbiótica con la industria aeroespacial. En este contexto no es de sorprender que el primer contrato para la fabricación de chips en grandes cantidades fuera con el programa de misiles balísticos Minuteman, de las fuerzas aéreas estadounidenses, para un modelo de dicho misil que voló por primera vez en 1964. Casi inmediatamente después del contrato con Minuteman llegó otro para el ordenador que guiaría a los astronautas del Apollo en su viaje a la Luna, en una serie de misiones tripuladas que empezaron en 1968 (Ceruzzi 1998, 182). Para entonces, la Ley de Moore empezaba a tener un impacto significativo en la ingeniería aeroespacial y en otros campos. La última de las misiones Apollo, una cita en la órbita terrestre con la cápsula soviética Soyuz, fue en 1975. A bordo iba una calculadora de bolsillo fabricada en la compañía de Silicon Valley Hewlett-Packard. Aquella calculadora tenía más capacidad informática que el ordenador encargado de la navegación, diseñado una década antes, cuando el chip era una novedad. Los ejemplos de situaciones similares son numerosos.

Los espectaculares avances hasta ahora mencionados y otros, como las misiones robóticas al espacio, son en gran medida el resultado de la influencia de la Ley de Moore en el diseño aeroespacial, especialmente en naves no tripuladas por humanos (quienes, para mejor o peor, siguen teniendo las mismas necesidades de espacio, comida, bebida y oxígeno hoy que en 1959, cuando se inventó el chip de silicio). La comparación directa de ARPANET con el proyecto Apollo deja fuera importantes matices de la historia. Una de sus ironías es que los avances en exploración espacial han influido también en el diseño de las naves. El módulo lunar Apollo —aquella nave desgarbada que transportó a dos astronautas por los 100 kilómetros que separan la órbita lunar de la superficie de la Luna— tenía que estar controlado por ordenador, ya que ningún ser humano es capaz de realizar un alunizaje en ausencia de atmósfera, y los controladores de la base de Houston estaban demasiado lejos para resultar de ayuda (Mindell 2008). En las etapas finales del programa Apollo los ordenadores de navegación se trasladaron de las naves espaciales a una nave experimental de la NASA, para comprobar si ésta se beneficiaba también de esta tecnología. No fue una coincidencia que la NASA escogiera como director del programa al mismísimo Neil Armstrong, el primer hombre que caminó sobre la Luna en 1969, y por tanto el primero cuya vida dependió en última instancia del correcto funcionamiento de un ordenador digital (Tomayko 2000).

Los ensayos de la NASA fueron un éxito, pero las compañías aéreas estadounidenses tardaron en adoptar las nuevas tecnologías. El consorcio europeo Airbus, sin embargo, sí lo hizo, empezando a finales de la década de 1980 con el Airbus A-320. A diferencia del módulo lunar, el avión no requiere comandos eléctricos de vuelo (fly-by-wire), pero el uso de un ordenador daba al A-320 una mayor comodidad a la hora de volar y le permitía ahorrar más combustible que sus competidores estadounidenses Boeing y McDonell-Douglas. Los comandos eléctricos de vuelo, unidos a las modernas cabinas de vidrio o glass cockpits (pantallas de ordenador con información de los sistemas del avión) forman hoy parte de todos los aviones comerciales y militares. La Lanzadera Espacial también emplea comandos eléctricos de vuelo en su diseño, ya que sin estos sistemas de control sería poco práctico que la pilotara un humano y esperar que realizara un aterrizaje de precisión después de entrar en la atmósfera a una velocidad de 27.000 kilómetros por hora.

Otra influencia directa de las fuerzas aéreas y de la NASA en la industria informática fue el desarrollo del CAD (siglas de Computer Aided Design, diseño asistido por ordenador). Las fuerzas aéreas patrocinaron un proyecto del Massachusetts Institute of Technology (MIT) que desembocó en el control de las máquinas por una secuencia digital de controles informáticos, codificados en forma de agujeros perforados en una banda de cinta plástica. Los resultados de este trabajo transformaron el funcionamiento de los aparatos no sólo en la industria aeroespacial sino en la metalurgia en general. Al mismo tiempo, ingenieros de varios centros de la NASA llevaban un tiempo empleando ordenadores para que asistieran en los análisis de impacto de cohetes y naves espaciales. Los vehículos lanzadera debían ser lo suficientemente resistentes para almacenar el oxígeno y el combustible así como para soportar las estructuras superiores, al tiempo que resistían la vibración y el impacto del lanzamiento. Además, tenían que ser ligeros. Los ingenieros aeronáuticos llevaban décadas enfrentándose a este problema; en una compañía aérea, por cada especialista en aerodinámica en nómina podía muy bien haber diez ingenieros trabajando en análisis de impacto. Su misión era asegurar que la nave era lo suficientemente resistente como para sobrevivir a un vuelo y al mismo tiempo lo bastante ligera como para despegar del suelo. La NASA fue la primera en poner en marcha la investigación informática en este campo y entre los resultados obtenidos estuvo un programa de análisis de impacto generalizado llamado NASTRAN: abreviatura de: NASA Structural Analysis (análisis estructural de la NASA), basado en el entonces ya popular lenguaje de programación FORTRAN. Desde entonces es de uso común en la industria aeroespacial.

La adopción por parte de los aviones comerciales del sistema de comandos eléctricos de vuelo instaurado por el programa Apollo puso en primer plano la cuestión de la fiabilidad. La invención del chip de silicio, en combinación con las iniciativas «Alta Fiabilidad» de las fuerzas aéreas, contribuyó en gran medida a hacer de los ordenadores una herramienta apropiada para la navegación espacial, pero la fiabilidad seguía estando en tela de juicio. Si los ordenadores del Apollo fallaban durante el vuelo los astronautas podría regresar a la base guiados por un ejército de controladores en Houston. Ningún ordenador del programa Apollo falló nunca, pero durante el vuelo del Apollo 13 en 1970 la nave se quedó prácticamente sin energía eléctrica y la tripulación no habría sobrevivido de no ser por los controladores de Houston, que les aconsejaron seguir adelante con el aterrizaje. Tener todo un equipo de controladores en tierra pendientes de cada vuelo comercial es obviamente inviable, por eso la Lanzadera Espacial, cuya misión es proporcionar acceso al espacio de manera rutinaria, fue diseñada de un modo diferente. Para el A-320 Airbus desarrolló un sistema de tres ordenadores eléctricos que «votan» antes de cada acción. El fallo durante el vuelo de uno de ellos sería contrarrestado por los votos de los otros dos, de manera que la nave siempre podría aterrizar sana y salva. La Lanzadera tiene cinco ordenadores, de manera que el fallo de uno de ellos no impediría que se completara la misión. El quinto ordenador está para el supuesto de que se produzca un error de software (Tomayko 1987, 85-133). Esta medida de seguridad se ha generalizado en el diseño aeronáutico. Muchas naves espaciales también la adoptan, pero en menor medida, especialmente si la tripulación no es humana.

Si la incorporación de herramientas informáticas a la aeronáutica comercial ha transformado los aviones de pasajeros, la situación en tierra no ha progresado más allá del tubo de vacío. El tráfico aéreo comercial es hoy muy seguro y dicha seguridad depende de que los controladores de vuelo dirijan el tráfico por autopistas aéreas virtuales. Puesto que Estados Unidos fue pionero en esta actividad, invirtió grandes cantidades de dinero en una tecnología que se basa parcialmente en ordenadores terrestres relativamente anticuados, con comunicaciones con los pilotos vía radio VHF en la frecuencia AM, también una tecnología anticuada. La llegada del GPS (Global Positioning System, sistema de posicionamiento global) —un ejemplo tan válido como cualquier otro de la Ley de Moore— debería permitir a los controladores de vuelo prescindir de gran parte de su infraestructura y sustituirla con información a bordo enviada directamente a los pilotos desde satélites. En otras palabras, en lugar de que los controladores estén pendientes de la localización y la ruta de un avión, los mismos pilotos lo harán, con un método que no afecta la seguridad del vuelo y sí aumenta la capacidad de las vías aéreas. Los pilotos obtendrían información acerca de su posición y del tráfico que pueda interferir en su ruta empleando ordenadores a bordo que procesarían información procedente de la constelación GPS o de otros satélites de navegación, además de otros satélites y de unas cuantas estaciones de tierra. Esto está comenzando a suceder, pero es posible que Estados Unidos sea el último en implantar este sistema.

Si existe un denominador común a todas estas historias sería el de cómo sacar mejor partido de las destrezas humanas frente a las de los ordenadores, ya sea en tierra, en el aire o en el espacio. Se trata de una cuestión aún por zanjar, puesto que está en relación directa con la gradual sofisticación y miniaturización de los ordenadores, lo que obviamente implica que el aparato por sí solo puede desarrollar funciones que antes correspondían a humanos. Pero no es tan sencillo. Los ordenadores que operan en tierra también están mejorando. Los seres humanos tienen hoy las mismas limitaciones físicas que los tripulantes del programa Apollo, pero poseen un conocimiento mucho más profundo de la naturaleza de la navegación espacial y de sus necesidades.

Necesidades de la informática aeroespacial

Llegados a este punto merece la pena retroceder unas cuantas décadas y examinar algunos aspectos específicos de la navegación espacial y cómo la «informática», en el sentido más amplio de la palabra, está relacionada con ella.

La patente de los hermanos Wright para su avión de 1903 era para un sistema de control de vuelo y no para elevación, sustentación o propulsión. Con la nave espacial ocurre lo mismo; en ellas y en los misiles guiados el control es tan importante como la propulsión. Los misiles guiados se controlan como los aviones, aunque no llevan piloto humano. Las naves espaciales se mueven en un entorno diferente y por tanto sus necesidades de control también lo son. Un avión o un misil guiado deben tener los motores funcionando constantemente para vencer la resistencia de la atmósfera, mientras que el movimiento hacia delante de las alas en el aire genera una fuerza de sustentación que contrarresta la de la gravedad. Un cohete, en cambio, contrarresta la fuerza de la gravedad no por sustentación sino por empuje. Y una vez sale al espacio exterior la resistencia atmosférica desaparece. Llegado este punto los motores de la nave se apagan. Así, en muchas misiones espaciales, los motores del cohete sólo están en funcionamiento durante una pequeña fracción del tiempo total de navegación. Una nave espacial sí requiere sistema de control, en cambio, pero de manera diferente dependiendo de la fase de la misión en que se encuentre. Durante la fase inicial de vuelo con motor, que puede durar sólo unos pocos minutos, la clave está en alinear el vector de empuje de cohete con el centro de gravedad del vehículo lanzadera. La configuración de la mayoría de los cohetes, con los motores abajo y los tanques de combustible y la carga útil arriba, es inestable. El vehículo tiende a «querer» volcarse y, por un instante, podrá hacerlo si el empuje no está perfectamente guiado durante el ascenso. Una vez lograda la estabilidad en esta fase inicial, el sistema de guiado del vehículo puede dirigir el empuje de manera que se desvíe de esta alineación, primero ligeramente y luego de forma cada vez más marcada conforme vaya ganando velocidad. Esto hará que la nave se ladee hasta alcanzar un ángulo óptimo en el que el empuje no sólo contrarresta la gravedad sino que también propulsa el cohete en sentido horizontal: para entrar en órbita, regresar a la Tierra o abandonar por completo la atmósfera terrestre.

Controlar el empuje de un cohete en esta primera fase de una misión espacial recibe el nombre de «guiado», aunque parece no haber consenso sobre este término en el mundo de la aeronáutica. Además, este sistema de guiado es necesario durante la práctica totalidad de la trayectoria de un misil de combustión, en la cual los motores están operativos casi todo el tiempo.

Una vez que la nave espacial alcanza la velocidad deseada, puede dirigirse a su destino con una trayectoria «balística», llamada así por su parecido a una roca lanzada al aire. Ello en el supuesto de que la velocidad alcanzada sea la correcta en el momento en que se apagan los motores. En caso contrario, o bien los motores principales o bien otros auxiliares se usan para corregir la trayectoria. Esta operación recibe el nombre de «navegación», aunque también aquí la definición no está consensuada. De nuevo a diferencia de los barcos o de los aviones, en misiones de larga distancia una nave espacial puede disparar sus cohetes sólo ocasionalmente y no de forma continua (a excepción de los sistemas de propulsión por iones y eléctrico). Pero el proceso es el mismo: determinar si el rumbo es correcto y, de no ser así, arrancar los motores para modificar la velocidad según sea necesario.

Por último, una nave que surca el espacio no está sujeta a las fuerzas de la atmósfera. Una vez los motores se han detenido es libre de emprender cualquier dirección y mantendrá el mismo rumbo independientemente de adónde apunte. En la práctica una misión requiere que la nave se oriente en una dirección específica: que coloque sus paneles solares en dirección al Sol, que apunte con su cámara a un punto en la Tierra, a una antena, etc. El proceso de orientar una nave con sus ejes x, y y z en el espacio se llama «control». Una nave espacial adquiere control empleando cohetes de motor de pequeño empuje, bobinas magnéticas, ruedas impulsoras, gradientes de gravedad y otras herramientas aún más exóticas. El término «control» también incluye aspectos operativos de la misión espacial, tales como la puesta en funcionamiento de una cámara, la activación de instrumentación, preparar un vehículo para su captura por la atmósfera de otro planeta, etc. Estas acciones pueden hacerse de forma automática, por los miembros de la tripulación a bordo o por estaciones de «control de misión» emplazadas en tierra firme.

La aeronave de los hermanos Wright tenía un diseño inestable y requería atención constante por parte del piloto. Trasladar el estabilizador horizontal a la parte trasera del avión proporcionaba una mayor estabilidad, de la misma manera que las plumas de la cola estabilizan una flecha. Pero el control del vuelo aeronáutico aún era una tarea complicada. Con objeto de ayudar al piloto a mantener el control de aparato, el inventor estadounidense de principios del siglo xx Elmer Sperry desarrolló un sistema de giróscopos que aumentaba la estabilidad del aparato y facilitaba el pilotaje del mismo. Esta combinación de colocación de las superficies de control aerodinámico en la popa con un sistema autoestabilizador basado en giróscopos se trasladó al diseño y fabricación de cohetes. Los sistemas de guiado de los cohetes modernos todavía incorporan una versión, más compleja, eso sí, del invento de Sperry. De estas mejoras, una resultó de especial importancia para el sistema de guiado de cohetes y procedía del programa alemán V-2: el diseño de un giróscopo pendular para medir el tiempo integral de aceleración, que (según los cálculos de Newton), indica la velocidad de la nave (Mackenzie 2000).

Durante la fase de vuelo con motor el guiado debe realizarse a velocidades proporcionales a la acción del cohete. Esto deja fuera cualquier intervención de humanos situados en el punto de lanzamiento, aparte de decisiones tales como destruir un cohete que se ha salido de rumbo. Las funciones de control también pueden desempeñarlas sistemas instalados a bordo, pero si no existe urgencia por orientar una nave puede hacerse por medio de comandos dictados desde tierra. La navegación a menudo puede ser lenta, con tiempo suficiente para procesar datos recogidos por radar a través de potentes ordenadores centrales, que a continuación pueden transmitir las instrucciones según éstas sean necesarias. Así, mientras que el guiado se realiza fundamentalmente a bordo de la nave por medio de giróscopos y acelerómetros que operan sin comunicación con el exterior, la navegación y el control pueden combinar información procedente de los sistemas a bordo con señales de radio a y desde las bases situadas en tierra. Algunos de los primeros misiles balísticos se guiaban también por radio desde tierra, aunque a velocidades a tiempo real y sin intervención humana directa en el momento de lanzamiento. Esta modalidad de guiado por haz direccional ha caído hoy en desuso.

Trasladar las señales procedentes de un giróscopo integrado o un acelerómetro requería de lo que hoy llamamos «computación» o «cómputo». Los primeros sistemas empleaban sistemas electromecánicos de marchas y repetidores. Se trataba de ordenadores analógicos con un diseño que era «análogo» a las condiciones de vuelo que debía controlar. El V-2, por ejemplo, utilizaba un giróscopo pendular para computar la integral de aceleración, informando así de la velocidad; a determinada velocidad el motor se apagaba para alcanzar un objetivo predeterminado. Estos primeros mecanismos fueron más tarde sustituidos por sistemas electrónicos que empleaban tubos de vacío. Sin embargo los tubos de vacío, aunque de acción rápida, seguían siendo intrínsecamente frágiles e inestables, y sólo se utilizaban en contadas ocasiones.

Los sistemas electrónicos mejoraron sensiblemente con la llegada de las tecnologías de estado sólido, primero el transistor y luego el circuito integrado, ya descritos. Estos circuitos no sólo eran pequeños y resistentes, también posibilitaban diseñar sistemas de control digitales en vez de analógicos y así aprovechar la mayor flexibilidad del ordenador digital. La tecnología digital se emplea ya extensamente no sólo en la industria aeroespacial, también en los nuevos misiles guiados así como en los aviones comerciales y militares. Aunque acertadamente calificado de «revolución», el cambio tardó tiempo en producirse y los primeros ordenadores digitales no aparecieron hasta mediados de la década de 1960, con sistemas como el proyecto Géminis.

Mucho antes de eso, sin embargo, el ordenador digital tuvo una gran influencia en los controles de la aviación terrestres. El V-2 operaba a excesiva velocidad para ser controlado —o rastreado o interceptado— por un ser humano durante el vuelo. Los nuevos aviones no eran tan rápidos, pero igualmente dificultaban la capacidad de los humanos de controlarlos. Hacia 1950 se empezó a aceptar que la computadora electrónica digital, situada en tierra, allí donde su peso y su tamaño no revestían tanta importancia, podía resolver el problema. El proyecto Whirlwind, desarrollado por el Massachusetts Institute of Technology, consiguió dirigir con éxito un avión de las fuerzas aéreas para que interceptara otro en Cape Cod en abril de 1951. A Whirlwind le siguió SAGE, acrónimo de Semi-Automatic-Ground-Environment (entorno terrestre semiautomático), un gigantesco sistema de radares, ordenadores y redes de comunicación que mantenía a Estados Unidos informado acerca de cualquier incursión de la aviación soviética en el Polo Norte. Voces críticas argumentan que el SAGE ya estaba obsoleto para cuando se completó, ya que el misil balístico había sustituido al bombardero como método de lanzamiento de armas. SAGE no podía proporcionar defensa contra misiles balísticos, pero sí fue una importante inspiración para muchos sistemas de control terrestre posteriores, incluidos los empleados hoy día por la Administración Federal de Aviación de Estados Unidos para gestionar el tráfico aéreo comercial (Ceruzzi 1989).

Llegada la década de 1960 las operaciones espaciales ya estaban controladas en gran medida desde tierra. En el diseño inicial del proyecto Mercury, por ejemplo, el papel del astronauta era prácticamente el de simple pasajero, con estaciones de control terrestres repartidas por todo el mundo encargadas de guiar la misión, hasta el punto de que las primeras cápsulas espaciales del proyecto ni siquiera tenían ventanas. A partir de entonces las naves espaciales con tripulación humana empezaron a ganar en autonomía, pero ninguna de ellas tiene autorización para maniobrar sin información directa de los controladores en tierra. El rescate de la tripulación del Apollo 13 en 1970 puso de manifiesto la suma importancia de dichos controles. Hoy, la mayoría de las operaciones espaciales, desde la Estación Lanzadera y Espacial hasta los satélites de comunicación comerciales y las misiones militares y de investigación científica sin tripulación, requieren mayores infraestructuras terrestres que la aviación comercial y militar.

SAGE fue diseñado para detectar aviones enemigos. Una década más tarde Estados Unidos empezó a desarrollar el BMEWS (Ballistic Missile Early Warning System), un sistema de alerta temprana de misiles balísticos. La defensa aérea del continente se consolidó con la creación de una infraestructura llamada NORAD (North American Aerospace Defense Command, Comando de defensa aeroespacial de Norteamérica) en Colorado Springs, Colorado, donde ordenadores y humanos vigilan de forma continuada el espacio aéreo. La defensa contra misiles balísticos continúa siendo un objetivo escurridizo. En el presente los esfuerzos están agrupados bajo el término Defensa Nacional contra Misiles, que ha desarrollado algunos prototipos de hardware. Se han instalado unos cuantos sistemas diseñados para interceptar misiles de corto alcance en varios lugares del planeta. Los ordenadores desempeñan un papel crucial en dichos esfuerzos: ayudan a detectar el lanzamiento de un misil, a rastrear su trayectoria, a discernir objetivos legítimos de meros señuelos y a dirigir los interceptores. Estas actividades requieren de una potencia informática gigantesca, así como de elevadas capacidades de procesamiento. La defensa contra misiles está impulsando el campo de la informática hasta extremos desconocidos para el usuario común, a años luz de los teléfonos móviles, ordenadores portátiles o reproductores multimedia.

Para la detección de señales de inteligencia procedentes de satélites también se han desarrollado sistemas de control igualmente elaborados y costosos. Aunque los detalles acerca de los mismos son información clasificada, podemos afirmar que gran número de los sistemas militares estadounidenses son controlados desde infraestructuras terrestres localizadas en las proximidades de Colorado Springs, y los relacionados con la navegación espacial, en Houston. Todos ellos pueden considerarse descendientes legítimos del proyecto Whirlwind.

Por último cabe añadir una observación relativa a la naturaleza del control terrestre frente al control a bordo. SAGE son las siglas de control terrestre semiautomático. El prefijo «semi» se incluyó para dejar bien claro que seres humanos participaban activamente del proceso y que ningún sistema informático podría actuar por su cuenta, sin intervención humana. Del mismo modo, en los programas de navegación espacial, los planes iniciales de poner en órbita naves controladas por completo desde tierra no llegaron a ponerse en práctica. Los primeros diseños del proyecto Mercury fueron modificados, al principio accediendo a presiones por parte de los astronautas, más tarde una vez los primeros vuelos pusieron de manifiesto que era absurdo que el tripulante tuviera un papel del todo pasivo durante el vuelo. El deseo de la intervención humana está también presente en la gestión de la Lanzadera Espacial, que no puede operar sin un piloto de carne y hueso.

El futuro

De lo discutido hasta ahora cabe deducir que no es posible establecer una comparación simple entre los avances en informática y en navegación espacial desde 1958. No obstante, a los productores del programa de televisión «Nerds, 2.0.1.» no les faltaba razón. Internet ha experimentado una rápida difusión entre la sociedad que la navegación espacial no ha sido capaz de igualar. Un factor no mencionado en el programa pero que puede ser relevante es una observación hecha por el pionero en redes informáticas Robert Metcalfe. Según éste, el valor de una red de comunicaciones aumenta conforme lo hace el cuadrado del número de sus usuarios (una afirmación bautizada por él mismo como Ley de Metcalfe, en oposición a la Ley de Moore). Así Internet, que aumenta su cifra de usuarios cada día, incrementa su valor mucho más rápidamente que el coste que supone hacer cada una de estas nuevas conexiones. La exploración espacial carece de una ley equivalente, aunque si las sondas espaciales terminan por hallar indicios de vida en otros planetas habrá que reescribir la ecuación.

Una faceta de la historia que suele olvidarse cuando se escribe sobre Internet es que la comunidad aeroespacial estuvo entre las pioneras en la utilización de redes informáticas, pero con objetivos distintos. El sistema SAGE fue la primera red informática a gran escala del mundo, por ejemplo. Y la primera vez que se utilizó una red informática para uso privado, es decir, ni militar ni gubernamental, fue el sistema de reservas aéreas SABRE, desarrollado por IBM para American Airlines a principios de la década de 1960. De hecho, ARPANET se desarrolló en parte para paliar las deficiencias de SAGE. En este último toda la red se volvería inoperativa si se destruía uno de los nodos de control centrales. Con Internet eso no puede ocurrir ya que, por diseño, carece de un punto de control central. La capacidad de Internet de vincular sistemas informáticos distintos mediante un conjunto de protocolos comunes la diferencia de otras redes informáticas aeroespaciales, que a menudo no pueden comunicarse entre sí. Un ejemplo especialmente embarazoso de ello ocurrió recientemente durante el desarrollo por parte de Airbus de su superjumbo, el Airbus-380, el cual empleaba un programa informático CAD llamado CATIA, desarrollado por la compañía francesa Dassault Systèmes. CATIA permitía a ingenieros de distintos laboratorios y plantas industriales trabajar conjuntamente en una serie de «dibujos» o planos virtuales, como si estuvieran en el mismo edificio. Para el A-380, un grupo de diseñadores empleaba una versión modificada de CATIA, y cuando se reunieron las distintas partes para el ensamblaje final en la planta industrial de Airbus en Tolouse, resultó que no encajaban. Boeing también ha experimentado problemas similares a la hora de integrar ensamblajes procedentes de distintos puntos de fabricación para su nuevo avión, el 787 Dreamliner. Aunque para hacer justicia a Airbus y Boeing hay que decir que Internet, tal y como está actualmente configurada, no sería capaz de gestionar las complejidades que implica el diseño de un aeroplano moderno, a pesar de que sí es más operativa que un gran número de nodos repartidos por todo el mundo.

¿Significó el proyecto Apollo de la NASA, por muy impresionante que fuera desde el punto de vista de la ingeniería, un punto muerto en la carrera espacial? ¿Y es la red de comunicaciones desarrollada por la agencia gemela de la NASA, ARPA, la tecnología definitiva de la era moderna? Ninguna de las dos preguntas es sencilla de responder. Ambas tecnologías han crecido en una relación simbiótica y seguirán haciéndolo en el futuro. El concepto de ordenador como un agente dotado de inteligencia artificial al servicio de la humanidad ha dado paso al de la computadora como un artefacto diseñado para «complementar el intelecto humano», en palabras del pionero de la informática Douglas Engelbart. Engelbart es especialmente conocido por la invención del ratón informático, pero también por ser uno de los primeros científicos en identificar el lugar que ocuparían los ordenadores en nuestras vidas. Antes de inventar el ratón Engelbart trabajó en el centro de investigación de la NASA, Ames, en Mountain View, California y más tarde para una firma de redes informáticas propiedad de la compañía aeroespacial McDonell-Douglas. Así que conocía bien las limitaciones del mundo real y también el verdadero potencial de la informática en red y de sus aplicaciones en la industria aeroespacial.

Las limitaciones del cuerpo humano continuarán siendo un lastre en el progreso de la exploración del espacio. Con el conocimiento que tenemos hoy día de las leyes físicas resulta difícil concebir expediciones humanas más allá de la órbita de Marte, incluso con las extrapolaciones más optimistas de los recientes cohetes con motores de propulsión química. Si continúa la tendencia actual, hacia el año 2030 los ordenadores incorporarán tantos circuitos como neuronas hay en el cerebro humano. Si tenemos en cuenta esta equivalencia, entonces podría concebirse transferir la naturaleza de la conciencia humana a un ordenador, que a su vez podría explorar el Cosmos libre de las limitaciones que trae consigo la presencia humana, la cual, de momento, todavía es necesaria. Tal es el argumento del inventor Ray Kurzweil, quien está convencido de que dicha transferencia de conciencia es inevitable (Kurzweil 1999). Claro está que ello pasa por que esta transferencia se produzca en realidad. Ya hemos visto que las predicciones iniciales sobre inteligencia artificial resultaron ser en exceso optimistas. Disponer de más y más circuitos puede no ser suficiente para que un ordenador cruce el umbral que separa la «inteligencia», sea cual sea su definición, de la «conciencia». Es aconsejable dejar estas especulaciones a los escritores de ciencia-ficción. Podemos sentirnos decepcionados por el hecho de que la exploración del espacio presente, a día de hoy, tantas limitaciones, pero es difícil conservar esa impresión mucho tiempo a la vista de todos los otros emocionantes avances en aeronáutica espacial que nos sorprenden cada día.

Bibliografía

Abbate, Janet. Inventing the Internet. Cambridge, Massachusetts: MIT Press, 1999.

Ceruzzi, Paul. Beyond the Limits: Flight Enters the Computer Age. Cambridge, Massachusetts: MIT Press, 1989.

—, A History of Modern Computing. Cambridge, Massachusetts: MIT Press, 1998.

Dick, Steven J., y Roger Launius, eds. Societal Impact of Spaceflight. Washington, DC: NASA, 2007.

Kranz, Gene. Failure is not an Option. Nueva York: Berkeley Books, 2000.

Kurzweil, Ray. The Age of Spiritual machines: When Computers Exceed Human Intelligence. Nueva York: Viking, 1999.

Mackenzie, Donald. Inventing Accuracy: A Historical Sociology of Nuclear Missile Guidance. Cambridge, Massachusetts: MIT Press, 1990.

McCorduck, Pamela. Machines Who Think: A personal Inquiry into the History and Prospects of Artificial Intelligence. San Francisco, California: W.H. Freeman, 1979.

Mindell, David. Digital Apollo: Human and Machine in Spaceflight. Cambridge, Massachusetts: MIT Press, 2000.

Moore, Gordon. “Cramming More Components onto Integrated Circuits.” Electronics, 19 de abril de 1965, 114-117.

Noble, David F. Forces of Production: A Social history of Industrial Automation. Nueva York: Oxford University Press, 1986.

Norberg, Arthur, y Judy O’Neill. Transforming Computer Technology: Information Processing for the Pentagon, 1962-1986. Baltimore, Maryland: Johns Hopkins University Press, 1996.

Segaller, Stephen. Nerds: A Brief History of the Internet. Nueva York: TV Books, 1998.

Tomakyo, James E. Computers in Spaceflight: the NASA Experience. Nueva York: Marcel Dekker, Inc., 1987.

—, Computers Take Flight: A History of NASA’s Pioneering Digital Fly-By-Wire Project. Washington, DC: NASA, 2000.

Citar esta publicación
Escuchando
Mute
Cerrar

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada