domingo, 18 de febrero de 2018

las Auroras polares

Aurora polar

Archivo:Aurora Australis.ogv
Video realizado por la tripulación de la Estación Espacial Internacional que muestra la aurora polar, la cual es causada por partículas con alta energía en el ambiente espacial.
Aurora boreal en Alaska.
Aurora austral en Nueva Zelanda.
Aurora boreal en Hvolsvöllur (Islandia)
Aurora boreal en Hvolsvöllur (Islandia)
Aurora boreal en Hvolsvöllur (Islandia)
Aurora boreal en Hvolsvöllur (Islandia)
Aurora boreal pulsante en Hvolsvöllur (Islandia)
Aurora boreal pulsante en Hvolsvöllur (Islandia)
Aurora polar (o aurora polaris) es un fenómeno en forma de brillo o luminiscencia que se presenta en el cielo nocturno, generalmente en zonas polares, aunque puede aparecer en otras zonas del mundo durante breves períodos. En el hemisferio sur es conocida como Aurora austral, y en el hemisferio norte como Aurora boreal, cuyo nombre proviene de Aurora, la diosa romana del amanecer, y de la palabra griega Bóreas, que significa norte.
Los mejores momentos para observarla son entre septiembre y marzo en el hemisferio norte (aurora boreal), y entre marzo y septiembre en el hemisferio sur (aurora austral).

Origen[

Una aurora se produce cuando una eyección de partículas solares cargadas (radiación cósmica) choca con la magnetósfera de la Tierra. Esta "esfera" que nos rodea obedece al campo magnético generado por el núcleo de la Tierra, formada por líneas invisibles que parten de los dos polos, como un imán. Además existen fenómenos muy energéticos, como las fulguraciones o las eyecciones de masa coronal que incrementan la intensidad del viento solar. Cuando dicha masa solar choca con nuestra esfera protectora, estas radiaciones solares, también conocidas con el nombre de viento solar, se desplazan a lo largo de dicha esfera. En el hemisferio que se encuentra en la etapa nocturna de la Tierra en los polos, donde están las otras líneas de campo magnético, se va almacenando dicha energía hasta que no se puede almacenar más, y esta energía almacenada se dispara en forma de radiaciones electromagnéticas sobre la ionosfera terrestre, creadora, principalmente, de dichos efectos visuales.
Magnetósfera de la Tierra desviando las partículas solares cargadas (líneas amarillas) hacia lo polos, donde forman las auroras.
Imagen de una aurora austral en torno a la Antártida fotografiada desde un satélite de la Nasa.
Aurora austral fotografiada desde la base norteamericana Amundsen-Scott, durante el invierno polar (la aurora duró casi seis meses).
El Sol, situado a 150 millones de km de la Tierra, está emitiendo continuamente partículas que constituye un flujo de partículas denominado viento solar. La superficie del Sol o fotosfera se encuentra a unos 6000 °C; sin embargo, cuando se asciende en la atmósfera del Sol hacia capas superiores la temperatura aumenta en vez de disminuir. La temperatura de la corona solar, la zona más externa que se puede apreciar a simple vista solo durante los eclipses totales de Sol, alcanza temperaturas de hasta 3 millones de grados. Al ser mayor la presión en la superficie del Sol que la del espacio que le rodea, las partículas cargadas que se encuentran en la atmósfera del Sol tienden a escapar y son aceleradas y canalizadas por el campo magnético del Sol, alcanzando la órbita de otros cuerpos de gran tamaño como la Tierra. Además existen fenómenos muy energéticos, como las fulguraciones o las eyecciones de masa coronal que incrementan la intensidad del viento solar.
Las partículas del viento solar viajan a velocidades en un rango aproximado de 490 a 1000 km/s, de modo que recorren la distancia entre el Sol y la Tierra en aproximadamente dos días. En las proximidades de la Tierra, el viento solar es deflectado por el campo magnético de la Tierra o magnetósfera. Las partículas fluyen en la magnetósfera de la misma forma que lo hace un río alrededor de una piedra o de un pilar de un puente. El viento solar también empuja a la magnetósfera y la deforma de modo que, en lugar de un haz uniforme de líneas de campo magnético como las que mostraría un imán imaginario colocado en dirección norte-sur en el interior de la Tierra, lo que se tiene es una estructura alargada con forma de cometa con una larga cola en la dirección opuesta al Sol. Las partículas cargadas tienen la propiedad de quedar atrapadas y viajar a lo largo de las líneas de campo magnético, de modo que seguirán la trayectoria que le marquen estas. Las partículas atrapadas en la magnetósfera colisionan con los átomos y moléculas de la atmósfera de la Tierra que se encuentran en su nivel más bajo de energía, en el denominado nivel fundamental. El aporte de energía proporcionado a estas provoca estados de alta energía también denominados de excitación. En poco tiempo, del orden de las millonésimas de segundo, o incluso menos, los átomos y moléculas vuelven al nivel fundamental perdiendo esa energía en una longitud de onda en el espectro visible al ser humano, lo que vulgarmente viene a ser la luz en sus diferentes colores. Las auroras se mantienen por encima de los 95 km respecto a la superficie terrestre porque a esa altitud la atmósfera ya es suficientemente densa como para que los choques con las partículas cargadas ocurran con tanta frecuencia que los átomos y moléculas estén prácticamente en reposo. Por otro lado, las auroras no pueden estar más arriba de los 500-1000 km porque a esa altura la atmósfera es demasiado tenue —poco densa— como para que las pocas colisiones que ocurren tengan un efecto significativo en su aspecto lumínico.

Los colores y las formas de las auroras

Las auroras tienen formas, estructuras y colores muy diversos que además cambian rápidamente con el tiempo. Durante una noche, la aurora puede comenzar como un arco aislado muy alargado que se va extendiendo en el horizonte, generalmente en dirección este-oeste. Cerca de la medianoche el arco puede comenzar a incrementar su brillo, pueden formarse ondas o rizos a lo largo del arco y también estructuras verticales que se parecen a rayos de luz muy alargados y delgados. De repente la totalidad del cielo puede llenarse de bandas, espirales, y rayos de luz que tiemblan y se mueven rápidamente por el horizonte. Su actividad puede durar desde unos pocos minutos hasta horas. Cuando se aproxima el alba todo el proceso parece calmarse y tan solo algunas pequeñas zonas del cielo aparecen brillantes hasta que llega la mañana. Aunque lo descrito es una noche típica de auroras, nos podemos encontrar múltiples variaciones sobre el mismo tema.
Los colores que vemos en las auroras dependen de la especie atómica o molecular que las partículas del viento solar excitan y del nivel de energía que esos átomos o moléculas alcanzan. Por ejemplo no es lo mismo que la excitación se produzca en una zona con una atmósfera con niveles muy altos de oxígeno que en otra con niveles muy bajos de este.
El oxígeno es responsable de los dos colores primarios de las auroras. El verde/amarillo se produce a una longitud de onda energética de 557,7 nm, mientras que el color más rojo y morado lo produce una longitud menos frecuente en estos fenómenos, a 630,0 nm. Para entender mejor estar relación se recomienda buscar información sobre el espectro electromagnético en especial el rango visible.
El nitrógeno, al que una colisión le puede desligar alguno de sus electrones de su capa más externa, produce una luz azulada, mientras que las moléculas de nitrógeno son muy a menudo responsables de la coloración rojo/púrpura de los bordes más bajos de las auroras y de las partes más externas curvadas.
El proceso es similar al que ocurre en los tubos de neón de los anuncios o en los tubos de televisión. En un tubo de neón, el gas se excita por corrientes eléctricas y al perder su energía en forma de luz se forma la típica luz rosa que todos conocemos. En una pantalla de televisión un haz de electrones controlado por campos eléctricos y magnéticos incide sobre la misma, haciéndola brillar en diferentes colores dependiendo del revestimiento químico de los productos fosforescentes contenidos en el interior de la pantalla.

Ciencia y mitología

La auroras boreales se observaron y probablemente impresionaron mucho a los antiguos. Tanto en Occidente como en China, las auroras fueron vistas como serpientes o dragones en el cielo.
Las auroras boreales han sido estudiadas científicamente a partir del siglo XVII. En 1621, el astrónomo francés Pierre Gassendi describe este fenómeno observado en el sur de Francia y le da el nombre de aurora polar. En el siglo XVIII, el astrónomo británico Edmond Halley sospecha que el campo magnético de la Tierra desempeña un papel en la formación de la aurora boreal.
Henry Cavendish, en 1768, logra evaluar la altitud en la que se produce el fenómeno, pero no fue hasta 1896 cuando reproduce el en el laboratorio de Kristian Birkeland con los movimientos de las partículas cargadas en un campo magnético, facilitando la comprensión del mecanismo de formación de auroras.

Auroras en otros planetas[editar]

Auroras observadas en el UV en Júpiter.
Este fenómeno existe también en otros planetas del sistema solar, los cuales tienen comportamientos similares al planeta Tierra. Tal es el caso de Júpiter y Saturno, que poseen campos magnéticos más fuertes que la Tierra. Urano y Neptunotambién poseen campos magnéticos y ambos poseen amplios cinturones de radiación. Las auroras han sido observadas en ambos planetas con el telescopio Hubble.
Los satélites de Júpiter, especialmente Ío, presentan gran presencia de auroras. Las auroras han sido detectadas también en Marte por la nave Mars Express, durante unas observaciones realizadas en 2004 y publicadas un año más tarde. Martecarece de un campo magnético análogo al terrestre, pero sí posee campos locales, asociados a su corteza. Son estos, al parecer, los responsables de las auroras en este planeta.

El vuelo y el accidente de Schiaparelli en Marte

En octubre del año pasado, el módulo Schiaparelli de la misión ExoMars de la ESA no consiguió aterrizar con éxito en Marte. Después de la pertinente investigación, las razones por las que esto no fue posible han sido recogidas por la ESA en un informe que ha sido publicado hace un par de semanas.
Antes de entrar en las conclusiones presentadas en el informe, creo que es interesante aprovechar la oportunidad para explicar cómo estaba planeada la entrada, el descenso y el aterrizaje en Marte del módulo Schiaparelli, y cómo se sucedieron los hechos durante el vuelo.
La fase de entrada atmosférica de Schiaparelli comenzó en un punto situado aún en el espacio por encima de las capas más altas de la atmósfera de Marte. Este punto es denominado interfaz de entrada y, en el caso de Schiaparelli, tuvo lugar a 121 km de altitud. En este punto la sonda efectuó su entrada a casi 6 kilómetros por segundo con un ángulo de trayectoria específico de manera que la nave experimentara los niveles de carga térmica y estructural en los rangos para los que fue diseñada así como para alcanzar el punto de despliegue del paracaídas en las condiciones deseadas de altitud y velocidad más tarde en la trayectoria.
En el diseño de una entrada atmosférica, la nave debe llegar al interfaz de entrada con la orientación y con la velocidad de orientación adecuadas, parámetros que dependen de distintos factores. El escudo térmico debe estar posicionado correctamente para enfrentar al flujo aerodinámico que encontrará durante la travesía atmosférica y, en el caso de Schiaparelli, la nave debía estar girando alrededor de su eje longitudinal a una velocidad angular pequeña (entre dos y tres revoluciones por minuto) para proporcionar estabilidad en su orientación en su periplo desde su suelta por la Trace Gas Orbiter hasta entrar en la atmósfera marciana ya que el módulo de descenso no poseía un sistema de control de orientación.

Schiaparelli separándose de la ExoMars Trace Gas Orbiter. Fuente: ESA/AOES Medialab.
Esta pequeña velocidad de rotación también asegura que la entrada atmosférica sea balística; esto es, sin sustentación aerodinámica. La ausencia de sustentación en una cápsula se consigue diseñando la nave de forma que su centro de masa esté contenido en su eje de simetría y este era el caso en Schiaparelli; sin embargo, siempre hay un pequeño error inevitable en esta localización cuyo efecto de sustentación en la atmósfera se anula si se hace girar la nave. Una entrada balística no requiere de sistemas de control y de guiado para dirigir la nave hacia un lugar de aterrizaje específico, con lo que se reduce la complejidad del diseño. Por otra parte, si bien en una entrada balística, por tratarse de una entrada no guiada, el punto de aterrizaje puede darse dentro de una región más amplia que en el caso de una entrada guiada con sustentación, el punto de aterrizaje se dará dentro de una región menos amplia que en el caso de una entrada no guiada con sustentación, siendo esta última la razón por la que en una entrada que no sea guiada, por lo general se trata de conseguir sustentación nula. Excepciones a esta idea fueron las Viking 1 y 2, por ejemplo, naves que, por distintas razones,  estuvieron dotadas de cierto grado de sustentación a pesar de volar entradas no guiadas en Marte.
Durante la entrada, la nave va siendo frenada por la atmósfera según va perdiendo altitud hasta alcanzar las condiciones adecuadas de altitud y velocidad en las que se puede desplegar el paracaídas de forma que la presión dinámica sea suficiente para propiciar su apertura sin comprometer su integridad. Una nave como Schiaparelli precisa de un paracaídas debido a que la baja densidad atmosférica de Marte (apenas la centésima parte de la terrestre) es incapaz de frenarla hasta velocidades inferiores a la del sonido (en Marte), algo que es necesario debido a aspectos de estabilidad y de control para iniciar la retropropulsión en la última fase de aterrizaje. Es, por otra parte, debido a esta baja densidad atmosférica que se selecciona una zona de aterrizaje de poca elevación, o de elevación por debajo del nivel medio, con objeto de que el recorrido atmosférico sea mayor para conseguir un mayor frenado. Schaiparelli tenía planeado aterrizar en el Meridani Planum, en una región próxima a aquella en la que aterrizó Opportunity es su día, cuya elevación se sitúa entre uno y tres kilómetros por debajo del nivel de la superficie media en Marte.

Secuencia planeada de entrada, descenso y aterrizaje de Schiaparelli. Fuente: ESA/ATG medialab.
Hasta el momento de la apertura del paracaídas, Schiaperelli no realizó ninguna maniobra ya que, como se ha dicho antes, no estaba siendo guiada por tratarse de una entrada balística; pero, en su interior, la nave iba estimando su posición y velocidad mediante la integración en el tiempo del efecto del frenado aerodinámico que medían sus acelerómetros en un instrumento de navegación llamado Unidad de Medida Inercial (IMU). Una vez la altitud y velocidad determinadas por este sistema de navegación fueron idóneas, la señal fue transmitida para desplegar el paracaídas.
Una vez se despliega el paracaídas, a unos 11 km de altitud y a unos 470 metros por segundo en condiciones normales, y algo que, según la ESA sucedió alrededor del momento previsto, dio comienzo la llamada fase de descenso, que comprende los aproximadamente dos minutos que está operativo el paracaídas. Poco después de su despliegue, la nave se desprendió del escudo térmico para exponer al suelo marciano un radar que mide la altitud y la velocidad de la nave con respecto al terreno.
El tirón del paracaídas y su apertura genera torques sobre la nave que hacen que ésta se tambalee en cierto grado. Por esta razón, el escudo térmico se separa cuando ha transcurrido un cierto tiempo desde el despliegue del paracaídas (40 segundos en el caso de Schiaparelli). Este es el tiempo considerado necesario con un margen de seguridad de forma que las oscilaciones de la nave se atenúen lo suficiente para permitir una separación segura del escudo térmico y evitar así un posible recontacto.
Una vez separado el escudo térmico, el radar se activa y sus medidas son incorporadas a la solución de navegación de cara a afrontar la última fase de aterrizaje: el tramo final de la trayectoria que el aterrizador vuela de forma retropropulsada una vez se separen el paracaídas y la cubierta de la nave. Mediante el uso del radar, la solución de navegación se adapta a las características locales del terreno ya que es imposible predecir precisión la elevación e inclinación del suelo con los que se encontrará la nave más allá de un cierto rango estimado. Esto es debido a que el aterrizaje se puede dar en cualquier punto contenido en una región muy extensa con forma de elipse llamada elipse de aterrizaje, que en el caso de Schiaparelli fue de 100 km de largo por 15 km de ancho.

Elipse de aterrizaje de Schiaparelli (100 x 15 km). Fuente: IRSPS/TAS-I.
La razón de esta elipse radica en que la nave puede experimentar condiciones de vuelo muy diversas: distintos niveles de densidad atmosférica o vientos a distintas altitudes, un ángulo de trayectoria inicial ligeramente distinto del planeado, características aerodinámicas de la nave algo distintas de las que han sido caracterizadas en tierra, etc. Todas estas posibles diferencias se dan dentro de unos intervalos que bien se conocen o bien se pueden acotar. En los análisis previos a una misión como la de Schiaparelli, las fases de entrada, descenso y aterrizaje se simulan en presencia de diferentes combinaciones de todos estos tipos de diferencias y se comprueba que la misión se puede llevar a cabo con éxito en su presencia. Es debido a estas diferencias que, aunque se tiene como objetivo aterrizar en un punto determinado de la superficie, el lugar previsto de aterrizaje no es un punto sino la referida elipse de aterrizaje. Cabe apuntar aquí que Schiaparelli acabó impactando a 5,4 km al oeste del lugar planeado de aterrizaje y, por lo tanto, bien dentro de la elipse de aterrizaje.
Hacia el final de la fase de descenso, cuando se dan las condiciones más idóneas para el inicio de la última fase propulsada, tanto el paracaídas como la cubierta de la nave se separan, algo que debió haber sucedido a 1,2 km de altitud en condiciones normales. A partir de aquí, el sistema de propulsión debería haber maniobrado ligeramente la nave a una orientación propicia para comenzar el aterrizaje propulsado de acuerdo a un tipo de descenso llamado de giro por gravedaden el que toda la fuerza propulsiva se utiliza para contrarrestar el vector velocidad de la nave. Por esta técnica, la nave va perdiendo velocidad horizontal a la vez que va adquiriendo progresivamente una orientación que la llevará a realizar un descenso vertical sobre la superficie en los últimos metros.
Preliminarmente, los datos parcialmente analizados en su día por la ESA parecieron confirmar que todo se desarrolló según lo esperado hasta el momento de la separación del paracaídas y de la cubierta de la nave, aunque hay que notar que este evento combinado se produjo antes de lo previsto, lo que podía indicar bien que había habido un problema a bordo que lo hubiera precipitado o bien que entraba dentro de lo posible en algunas condiciones de vuelo menos probables. Los datos preliminares analizados poco después del accidente también apuntaron a que los retrocohetes se llegaron a encender seguidamente pero solo para pasar a apagarse de forma prematura. Por otra parte, las imágenes del impacto proporcionadas por la Mars Reconnoissance Orbiter de la NASA, hicieron estimar que Schiaparelli cayó sin control desde una altitud de entre 2 y 4 km. Estos hechos fueron, además, compatibles con el momento en el que se produjo la pérdida de la señal, 50 segundos antes del momento esperado en el que debía haberse posado la nave, según informó también la ESA. Así pues, según lo expuesto en su día de forma preliminar por la ESA, se desprendió que bien hubo algún tipo de problema posterior al despliegue del paracaídas. El informe revela ahora lo que sucedió.

Elementos de Schiaparelli vistos por el Mars Reconnaissance Orbiter de la NASA. Fuente: NASA/JPL-Caltech/University of Arizona.
Tal y como establece el informe EXOMARS 2016 – Schiaparelli Anomaly Inquiry, el accidente parece haber tenido su causa en el hecho de que la Unidad de Medida Inercial (IMU) a bordo fue saturada momentáneamente un instante después de que se produjera el despliegue del paracaídas. Apenas un instante después de haberse producido el hinchado del paracaídas, la nave experimentó una velocidad angular de cabeceo mayor de la que el IMU estaba capacitado para medir, haciendo que este instrumento quedara saturado en esta medida durante un corto espacio de tiempo que, además, fue mayor del estipulado en los requerimientos. Durante este tiempo, el sistema de navegación estuvo integrando el valor saturado de esta velocidad angular mientras la nave realmente estaba experimentando velocidades angulares distintas. Pasado el tiempo de saturación, la navegación a bordo creyó que la nave volaba dada la vuelta cuando, en realidad, lo hacía con el escudo térmico correctamente posicionado.
Poco después de que el escudo térmico fuera eyectado, entró en acción el radar, encargado de medir la altitud y la velocidad de la nave con respecto al terreno. Para determinar la altitud a la que está la nave, dado que ésta no vuela verticalmente sino que posee aún una alta componente de velocidad horizontal que hace que el radar no esté inicialmente apuntando sobre el suelo, el eco del radar debe ser corregido con la medida de la orientación con la que vuela la nave. Sin embargo, dado que la navegación de a bordo creía volar al revés, la altitud computada resultó ser negativa (una altitud por debajo del terreno).
A partir de aquí, todo procedió de forma errónea ya que las condiciones para que se produjeran algunos de los eventos siguientes estaban basados en altitud, bien total o parcialmente. Tanto la separación de la cubierta como la del paracaídas estaban basados en altitud, mientras que el apagado de los retrocohetes, encargados de propiciar el frenado último de la nave, se comandaba en función de la energía de la nave, que es una función de varios parámetros, entre ellos la altitud. Es por esta razón que los retrocohetes estuvieron encendidos solamente por un espacio tiempo insuficiente de 3 segundos en lugar de los 30 segundos que eran requeridos aproximadamente, con lo que la nave cayó sin control desde una altitud de 3,7 km para acabar impactando a unos 540 km/h.
El informe revela que el IMU no falló sino que operó en la manera en que estaba diseñado, y apunta a deficiencias en el proceso de análisis de la misión y en su diseño así como en la manera en la que se aceptó el IMU por parte del programa. Por una parte, el hecho de que el IMU experimentara una condición que excedía su capacidad de medida hace plantearse con qué grado de fidelidad fue simulada la misión en el proceso de análisis y de diseño.
En este sentido, el informe desvela que, en efecto, la ESA no utilizó el nivel de fidelidad adecuado en la simulación de un proceso tan dinámicamente complejo como es el despliegue e hinchado del paracaídas y de su efecto en la nave. De hecho, tal como indica el informe, posteriores simulaciones del despliegue del paracaídas de Schiaparelli bajo un gran número de condiciones posibles utilizando el modelo de alta fidelidad del JPL (Jet Propulsion Laboratory) de la NASA revelaron velocidades angulares que superaron en muchos casos el valor de saturación del IMU empleado.

Schiaparelli después de la separación del paracaídas y de la cubierta. Fuente: ESA/ATG medialab.
La ESA apunta correctamente a que el software de vuelo a bordo ofreció carencias de diseño en la detección de fallos o inconsistencias entre distintas condiciones y medidas, y que debería haber podido aportar una mayor robustez al diseño. Por ejemplo, el diseño del código debería haber hecho un manejo distinto de un tiempo de saturación más prolongado que el requerido, o debería haber podido identificar el conflicto que suponía recibir un eco del terreno por parte del radar mientras que la nava creía volar al revés.
Por último, también se identifica en el informe la necesidad de revisar la manera en la que se aceptan equipos suministrados por contratistas, como lo fue el IMU. En este caso, se asumió un tiempo de saturación de 15 milisegundos cuando, en verdad, el IMU operaba con un tiempo de saturación mayor. De hecho, el informe afirma que de haber sido 15 milisegundos el tiempo de saturación, Schiaparelli podría haber efectuado con éxito el aterrizaje.
Por otra parte, en el lado positivo, tal como indica también el informe, recordando que Schiaparelli era un demostrador tecnológico, una parte muy significativa de los objetivos de demostración fueron cumplidos y es cierto que muchos elementos de su diseño han podido ser validados en esta misión así como se han podido identificar muchas mejoras. Los fracasos sirven para aprender de los errores, y estoy seguro de que la lección extraída en esta ocasión no será desperdiciada por la ESA, una institución a la que, además, es justo agradecer que comparta con el público no solo sus numerosos, reconocidos e importantes éxitos sino también sus fracasos y el resultado de sus investigaciones, como es el caso del informe referido en este escrito y al que se puede acceder aquí.

La inestabilidad en el motor de descenso del módulo lunar en el Apolo 11

El motor de descenso del módulo lunar fue marginalmente estable en los Apolo 11 y 12 .
En una entrada que se publicó el año pasado por estas fechas hablé acerca de los imprevistos que tuvieron que ser sorteados por Armstrong y Aldrin, y por el equipo de control en Houston durante el descenso a la superficie de la Luna del módulo lunar Eagle, cuyo 48 aniversario tuvo lugar este 20 de julio. En especial, la aparición de varias alarmas a bordo y un error en la navegación durante el descenso complicaron una fase de vuelo que se acometía por primera vez en la historia y que era ya, de por sí, la más crítica y difícil de la misión Apolo 11. Sin embargo, hay un aspecto poco conocido del descenso propulsado relacionado con el control del motor de descenso del módulo lunar que estuvo muy cerca de haber supuesto un grave problema para la tripulación e incluso de haber requerido abortar el descenso.
El inicio del descenso propulsado (PDI, Powered Descent Initiation) a la superficie lunar se produjo a unos 460 km de distancia del lugar planeado de alunizaje y a unos 15 km de altitud. Este era el perilunio de una órbita de descenso en la que el módulo lunar se había insertado media revolución orbital antes mediante la maniobra DOI (Descent Orbit Insertion), un corto encendido de su motor de descenso que se produjo en la órbita original (llamada de aparcamiento) de unos 110 km de altura, en la que permanecería el módulo de mando y servicio pilotado por Michael Collins. Con el PDI se produjo de nuevo la ignición del motor de descenso, que ya no se apagaría durante los 12 minutos y medio siguientes hasta que el módulo lunar estuviera posado sobre la superficie.

Para poder conseguir volar la fase de descenso propulsado, el motor de descenso del módulo lunar debía ofrecer unas prestaciones muy específicas, entre ellas que su empuje fuera variable para acomodar las distintas subfases del vuelo dentro de esta fase, para responder adecuadamente a la reducción de la masa del módulo lunar según se consumía su combustible y para poder responder a los comandos de cambio de orientación y de velocidad de descenso propiciados por Armstrong durante el control manual en los últimos minutos del vuelo hasta posar la nave, capacidades que requerían de complejos algoritmos de software de control y guiado en la computadora de a bordo que debían estar adecuadamente conjugados con los sistemas de navegación, propulsión y de comando desde la cabina.
Uno de los elementos de diseño tiene que ver con el tiempo que transcurre entre el momento que un comando es emitido para cambiar el empuje del motor hasta que este empuje es, en efecto, cambiado. Ninguna respuesta a un comando se produce de forma instantánea ya que la señal eléctrica tarda un tiempo en alcanzar diversos equipos, los elementos mecánicos como las válvulas que regulan el paso de combustible tardan un tiempo en actuar, etc. Estos tiempos tienen que ser compensados en el algoritmo de control que reside en la computadora para que la operación del motor sea segura ya que, de otra forma, éste podría ser inestable, esto es, el valor del empuje podría comenzar a oscilar con amplitud cada vez mayor hasta ser incontrolable.
La tarea de compensar este retraso en el algoritmo de control recayó en Don Eyles, un joven ingeniero del Instituto Tecnológico de Massachusetts y uno de los programadores de la computadora del módulo lunar. La documentación relativa al motor de descenso de este módulo indicaba que ese retraso era de 0,3 segundos; sin embargo, Don Eyles, después de probar con varios niveles de compensación en el software, decidió establecerlo para un retraso de 0,2 segundos ya que con ese nivel observó que las oscilaciones desaparecían en simulaciones que reproducían el comportamiento del motor. Podría haber utilizado un nivel de compensación para los 0,3 segundos establecidos pero, a la hora de tener en cuenta otros factores de diseño, optó por no dar al sistema de control más de lo que parecía necesitar y evitar así que pudiera incurrir en alguna posible sobrecompensación imprevista.
Aunque importante para las tres subfases en las que se dividía la fase de descenso propulsado (frenado, aproximación y alunizaje), cada una con sus lógicas de guiado y control propias, el efecto de la compensación era especialmente relevante para la última de ellas, la de alunizaje, en la que el comandante volaba el módulo lunar de forma manual, sometiéndolo a constantes cambios de orientación y a ajustes de la velocidad de descenso en su búsqueda del lugar propicio para posar la nave.
Tras el vuelo del Apolo 12, Clint Tillman, de Grumman Aerospace, la empresa que construyó los módulos lunares, advirtió oscilaciones de un 5% en el empuje del motor durante simulaciones que realizó de la fase de alunizaje en las que se usaban equipos reales y no modelos de software que reprodujeran el comportamiento de los equipos. La oscilación era pequeña, pero Tillman entendió que ésta no debía estar presente. Su indagación del problema lo llevó a revisar la telemetría que enviaron las misiones Apolo 11 y 12 y lo que descubrió no lo dejó impasible: en ambos casos, la amplitud de las oscilaciones en el empuje del motor en la fase de alunizaje eran de hasta un 25% alrededor del valor comandado.
Los datos apuntaban a una fuente de inestabilidad en el sistema que no había sido detectada hasta entonces. Una de las causas fue atribuida al hecho de que el sensor que medía la aceleración de la nave en los tres ejes estaba colocado lateralmente a algo más de un metro del centro de masa de la nave, con lo que variaciones en el cabeceo del módulo lunar podían ser interpretados como cambios de velocidad vertical; sin embargo, este efecto no podía explicar oscilaciones tan altas.
La respuesta al dilema tuvo un origen mucho más sencillo aunque nada tranquilizador. El diseño del módulo lunar y de sus sistemas se veía constantemente perfeccionado y evolucionaba dentro del programa Apolo según se identificaban áreas o aspectos que pudieran ser mejorados. Cuando Don Eyles recibió en su día la documentación del motor de descenso, éste ya había experimentado considerables mejoras en su diseño, siendo una de ellas que el tiempo de retraso ya no era de 0,3 segundos sino de 0,075 segundos, un cambio que no fue actualizado en la documentación.
Esto quiere decir que, dado que Don Eyles programó el software de vuelo con un nivel de compensación para 0,2 segundos de retraso, y dado que el retraso era de 0,075 segundos, el sistema de control del empuje del motor de descenso voló, de hecho, sobrecompensado y de forma marginalmente estable tanto en el Apolo 11 como en el Apolo 12, lo que explica las oscilaciones del 25% que se descubrieron en la telemetría, lo que nos lleva a plantearnos qué habría sucedido si Don Eyles hubiera programado un nivel de compensación para el retraso de 0,3 segundos que estaba documentado en lugar de para los 0,2 segundos que prudentemente juzgó necesario.
La respuesta resulta ser turbadora ya que los análisis realizados posteriormente demostraron que, de haber sido este el caso, el sistema habría sido inestable ante una mínima excitación. La amplitud de las oscilaciones, pequeñas o grandes, en lugar de disminuir o de mantenerse constantes, habrían crecido rápidamente hasta el punto de que es altamente probable que el descenso se habría tenido que ver abortado en pleno vuelo, esto es, desde luego, en el mejor de los casos.

El telescopio Hubble muestra vórtice negro de Neptuno



Una nueva imagen de Neptuno confirma la presencia de un vórtice oscuro en su atmósfera, reveló el 23 de junio, el equipo que trabaja con el telescopio Hubble, lanzado al espacio el 24 de abril de 1990 por la NASA y la Agencia Espacial Europea (ESA).
El vórtice del octavo planeta del Sistema Solar fue visto por primera vez en septiembre de 2015 en una imagen anual del telescopio.
Los astrónomos en conjunto con un equipo de la Universidad de California en Berkeley destacaron que estos vórtices son sistemas de alta presión, que se desarrollan en manera similar a los remolinos del Atlántico en la Tierra o donde hay ciclones, tifones o huracanes.
“La imagen de luz visible de la izquierda muestra la característica oscuridad del vórtice que se encuentra cerca y por debajo de un grupo de nubes brillantes en el Hemisferio Sur del planeta. La mancha oscura mide cerca de 4.800 kilómetros de ancho”, señala el registro de la foto.
Neptuno Vórtice oscuro -  Hubble
Vórtice negro en Neptuno. Imagen del telescopio Hubble del 16 de mayo de 2016, publicada el 23 de junio. (NASA, ESA, and M.H. Wong and J. Tollefson (UC Berkeley)
También se pueden observar otras nubes de gran altitud en la región ecuatorial del planeta y en las regiones polares.
La imagen de la derecha también muestra la mancha oscura de Neptuno, pero con longitudes de onda de colores azules.
“En Neptuno, los vórtices oscuros están asociados a brillantes nubes de gran altura -que son ahora visibles en el planeta- y que se crean cuando el aire se desvía hacia arriba y los gases se congelan”, agrega el informe conjunto de Hubble y Berkeley.
 Vortice de Neptuno (Hubble/ UC Berkeley
Vórtice de Neptuno bajo una nube brillante. (Hubble/ UC Berkeley)
Este vórtice es el primero que se observa en el siglo 21. En septiembre de 2015, el equipo del programa OPAL (Programa de Atmósferas de los Planetas exteriores), un proyecto del telescopio espacial Hubble que captura anualmente mapas de los planetas exteriores a la Tierra, reveló una mancha oscura cerca de las nubes brillantes.
Ahora las nuevas imágenes tomadas por la cámara de campo ancho número 3, el 16 de mayo de 2016, confirmaron lo que había visto OPAL.
Otros vórtices fueron vistos en Neptuno durante el viaje espacial de Voyager 2 en 1989 y por el Hubble mismo en 1994.

Diversidad Galáctica

NGC 3175 se encuentra a unos 50 millones de años luz de distancia en la constelación de  Antlia (The Air Pump)  .  La galaxia se puede v...