viernes, 6 de noviembre de 2009

LA MICROGRAVEDAD COMO ENTORNO DE EXPERIMENTACIÓN

De aero.upm.es:

Fly Your Thesis! es el nuevo programa de la Agencia Espacial Europea (ESA) que ofrece a los estudiantes de sus países miembros la posibilidad de experimentar la microgravedad. El plazo para presentar ideas de interés científico finaliza el 31 de agosto.

La microgravedad, o lo que es lo mismo, la ausencia de esa fuerza dominante que ejerce la gravedad, es una sensación que experimentan los astronautas en la Estación Espacial Internacional. Se trata, entonces, de experimentar las mismas condiciones, pero a bordo de un Airbus 300 Zero-G en lo que se denominan vuelos parabólicos.

Los vuelos parabólicos aúnan el espacio y la aeronáutica. Para conseguir la microgravedad en el interior del Airbus 300, donde se encuentran el experimento y el experimentador interactuando directamente, el avión realiza una maniobra de ascenso y a continuación un picado, recorriendo una parábola. Los equipos seleccionados participarán en tres vuelos de 30 parábolas cada uno, con un período de ingravidez de unos 20 segundos en cada parábola.

Los requerimientos del programa son: un equipo de estudiantes que diseñe un experimento científico para ser probado en microgravedad como parte de su tesis doctoral, proyecto fin de carrera o investigación oficialmente reconocida, que registrados en el portal de Educación de la ESA, envíen una carta que explique sus intenciones de participar.

Tras esta primera fase inicial, cuyo plazo finaliza el 31 de agosto, se seleccionarán 20 equipos que deberán elaborar su propuesta científica de una manera más detallada y con el apoyo de un mentor. Presentarán dichos informes en un encuentro en el ESTEC (Holanda) y visitarán el European Astronaut Centre (EAC) en Alemania, el lugar donde se forman y entrenan los astronautas europeos. Y finalmente, en enero de 2009, tres o cuatro de los equipos serán seleccionados para probar su experimento en la 51ª Campaña de Investigación en Microgravedad de la ESA que tendrá lugar en otoño de 2009 en Burdeos (Francia).

El proceso de selección es más complicado de superar que en anteriores ediciones, pero
los equipos preseleccionados contarán con mayor apoyo por parte de científicos e
ingenieros de la ESA. Y además, algunos de los no seleccionados en la final, podrían
probar su experimento en otras plataformas de microgravedad. Las áreas de
investigación de los experimentos propuestos abarcan desde la física de fluidos a la
química y la biología, pasando por la ciencia de materiales, la transferencia de calor o la
astrofísica.

Vuelos parabólicos, una tradición en la UPM Los vuelos parabólicos de la Agencia Espacial Europea comenzaron a realizarse en 1984. Ya en las primeras campañas los nombres de ingenieros aeronáuticos españoles, titulados en la UPM, se colaban entre los de otros europeos. Tal es el caso del fallecido, Ignacio Da Riva, o de los profesores Sanchez-Tarifa y Meseguer, quienes han participado en más de una ocasión.

Diez años más tarde, en 1994, se incorporan a esta experiencia los estudiantes, para los que se crean las ESA Student Parabolic Flight Campains (SPFC), una oportunidad única de experimentar en condiciones de microgravedad. Desde entonces, alumnos de la Escuela Técnica Superior de Ingenieros Aeronáuticos (ETSIA) y de la Escuela Universitaria de Ingenieros Técnicos Aeronáuticos (EUITA) han tomado parte en estos vuelos parabólicos.

En 2004, el equipo Dedalus presentó URCOOL, un experimento del área de la fluidodinámica que trata de estudiar el fenómeno denominado “sloshing”, relevante puesto que el movimiento de la interfaz líquido-gas en estas condiciones pueden provocar problemas de diversa índole en la dinámica del vehículo lanzador y en los elementos asociados a los tanques de combustible. Para Mercedes Ruiz, una de sus integrantes, fue una experiencia única: “siempre quise ser astronauta e investigar en temas relacionados con el espacio y esta iniciativa reunía ambas oportunidades”.

Y no sólo eso, sino que también fue un éxito, como explica Mercedes, “sin lugar a dudas, el haber
participado en esta campaña me ha abierto puertas profesionales y aún existe la posibilidad de que vuelva a involucrarme en la evolución de este proyecto, a la vista de los resultados obtenidos y del interés para la industria del sector”.

El año siguiente, se embarcaba en la 8ª SPFC, José Luis Mora, junto con sus compañeros de Gravityless Firemen para experimentar “el agua nebulizada como agente extintor de incendios en microgravedad”, el primero seleccionado proveniente de la EUITA. Para su desarrollo estuvieron un año haciendo estudios y “el mejor resultado de los vuelos es que durante ese año tuve la oportunidad de conocer a mis ex profesores y hoy en día somos buenos amigos”, sostiene. Y aunque cree que “mi beneficio profesional ha sido nulo”, la ESA ha vuelto a escoger un proyecto para competir en la construcción de un “rover” (los robots que exploran la superficie de la Luna o Marte) en el que está involucrado, “algo que no hubiese sido posible de no ser por todo lo que aprendí en la 8ª SPFC”.

Todos los que han tomado parte de estos vuelos coinciden en una cosa “es una sensación única, extraordinaria, increíble, que no se puede describir, hay que experimentarla para comprenderla”. Así que, todos los interesados, tienen una nueva oportunidad para tratar de ganarse una plaza en el Airbus 300-Zero G.

jueves, 5 de noviembre de 2009

SIMULAR LA EVACUACIÓN DE UNA AERONAVE POR ORDENADOR PERMITE GANAR TIEMPO Y SEGURIDAD

de aero.upm.es:

La seguridad, leitmotiv del transporte aéreo, incluye el ensayo de evacuación entre las pruebas para obtener la certificación de una aeronave. Desarrollar una herramienta de simulación del ensayo eficiente, sencilla y versátil ha sido objeto de una tesis doctoral realizada en la ETSI de Aeronáuticos de la Universidad Politécnica de Madrid.

Las estadísticas no dejan lugar a dudas a la hora de hablar de seguridad en los medios de transporte, considerando a los aviones como una de las formas de desplazamiento de los seres humanos con menor número de accidentes anualmente. Pero en las aeronaves comerciales pueden presentarse situaciones de riesgo, como una salida de pista, un aterrizaje forzoso, una amenaza terrorista o una avería, que exigen una evacuación de emergencia.

En el complejo tema de la evacuación de emergencia de aviones de transporte se centra la tesis del recién doctorado José Manuel Hedo Rodríguez, concretamente en el ensayo de evacuación, el proceso de puesta a salvo de los ocupantes de un avión (tanto pasajeros como tripulación) en el exterior del mismo cuando las circunstancias lo aconsejan. Actualmente, la normativa contempla que el tiempo máximo para evacuar completamente el avión en una única demostración a escala real, con ocupantes auténticos y en unas condiciones concretas (oscuridad de la noche, mitad de las salidas de emergencias bloqueadas, bultos de equipaje en pasillos y vías de evacuación e interior iluminado únicamente con luces de emergencia) es de 90 segundos para conseguir pasar con éxito esta prueba imperativa para la certificación de la aeronave.

El ensayo de evacuación es una prueba más de la importancia que se le da a la seguridad aérea en la ingeniería aeronáutica. En el transporte aéreo se pone énfasis en todos los eslabones de la cadena, desde la prevención de accidentes (seguridad activa) hasta la protección de los ocupantes en caso de accidente (seguridad pasiva). En este último caso se busca maximizar la tasa de supervivencia mediante la investigación en tres temas que están estrechamente relacionados: la protección frente al impacto, la capacidad de supervivencia en incendios y la capacidad de evacuación.

Simulación por ordenador frente a ensayo demostrativo
El profesor de la Escuela Técnica Superior de Ingenieros Aeronáuticos de la Universidad Politécnica de Madrid se interesó por este último aspecto a la hora de elaborar su tesis doctoral titulada “Modelización Computacional del Ensayo de Evacuación de Emergencia de Aviones de Transporte”.

Los ensayos demostrativos del proceso de evacuación plantean, en palabras de Hedo, “una serie de inconvenientes frente a la sola ventaja de ser marco de referencia común para todos los aviones”. Entre esos inconvenientes destacan: que no reproduce la compleja casuística que puede producirse en una emergencia real, que se obtiene una muestra experimental insuficiente (de un único valor), que es costoso en recursos económicos (tanto en tiempo como en dinero) y un cierto nivel de riesgo para los participantes. Frente a esto, se trata de disponer de una herramienta de análisis y diseño que facilite el trabajo de las autoridades de certificación y el estudio del fenómeno a los diseñadores, es decir, sustituir el ensayo de evacuación por un modelo matemático computacional que simule dicho ensayo.

Pero hasta el momento, las autoridades de aeronavegabilidad sólo permiten un uso muy limitado de cálculos para el ensayo de evacuación de emergencia de la certificación, habitualmente junto a ensayos parciales o totales previos. Aunque la simulación por ordenador está alcanzando tales grados de sofisticación que ya sustituye a los experimentos tradicionales en infinidad de situaciones y también dentro del campo de actuación de la ingeniería aeronáutica, actualmente “los cálculos se reducen fundamentalmente a sencillas extrapolaciones en caso de modificación de un avión que ya pasó su ensayo de evacuación correspondiente”, expone el profesor.

La herramienta de modelización de la evacuación paso a paso
A la espera de que la evolución lógica de simulación de fenómenos por ordenador permita la sustitución del ensayo de evacuación de aeronaves, José Manuel Hedo, ha desarrollado la herramienta ETSIA (Evacuation Test Simulation and Investigation Algorithm) que además de ese objetivo permite ayudar en el diseño de cabinas con vistas a su certificación. “Se caracteriza por su sencillez, su flexibilidad y su versatilidad y por poder ejecutarse en cualquier ordenador personal con una máquina virtual JAVA”, apostilla.

En la simulación por ordenador se parte de una cubierta de avión, generalmente en configuración de máxima densidad de asiento, por ser éste el caso crítico. Se recopilan los datos de entrada sobre el escenario (asientos, transportines, salidas, vías, etc.) sobre los humanos y sobre la configuración de evacuación que se pretende estudiar (salidas disponibles y medios de descenso).
“Recordemos —explica Hedo— que la evacuación de un avión es muy diferente de la que se realizaría en otro tipo de espacio”. Destacan tres diferencias clave: el margen temporal disponible es muy estrecho, pues los motores de aviones funcionan con combustibles líquidos muy inflamables que en caso de accidente es probable que generen un incendio en poco tiempo, por lo que el riesgo crece exponencialmente con el paso del tiempo. También el diseño en planta de las cubiertas de un avión, que se hace con un criterio de aprovechamiento óptimo del espacio para minimizar el peso en vacío, por lo que los espacios disponibles para los ocupantes son mínimos (los aviones de fuselaje estrecho disponen de un único pasillo principal) lo que implica que se produzcan conflictos cinemáticos (de trayectoria de movimiento) entre los ocupantes. Y por último, los medios de descenso neumático usados para evacuar pueden alcanzar una altura de hasta 8 metros, lo que introduce un retardo psicológico adicional denominado “tiempo de indecisión”.

La herramienta software, con un lenguaje de programación multiagente, reproduce la geometría básica del escenario, genera los agentes que simulan a los ocupantes, se encarga de simular su movimiento en el escenario, presenta en tiempo real la información relevante disponible y va registrando la interesante para finalmente analizar la evacuación con evaluadores originales. Los modelos matemáticos se usan intensivamente por toda la herramienta: generación del pasaje siguiendo la distribución edad-sexo requerida por la norma, generación aleatoria de los atributos cinemáticos de los ocupantes, algoritmos de movimiento y resolución de los conflictos cinemáticos, Interfaz de la herramienta Evacuation Test Simulation and Investigation Algorithm (ETSIA) entre otros. El proceso termina con el análisis de los resultados numéricos y gráficos representados en la interfaz y/o registrados por la herramienta.

Más seguridad y ahorro en tiempo y dinero
Las ventajas de la simulación computacional son claras. “Se gana capacidad de análisis, tamaño de muestra experimental, tiempo, dinero y seguridad”, sostiene el docente de la ETSI Aeronáuticos. El ahorro de tiempo en la obtención de resultados es un factor fundamental, ya que supone que se puedan estudiar previamente al ensayo real y de forma exhaustiva todos los casos concebibles, así como estudiar sistemáticamente la influencia de las modificaciones de diseño en las prestaciones de evacuación.
Pero no se alejan de las dificultades que plantea el estudio de la cinemática (parte de la mecánica clásica que estudia las leyes del movimiento de los cuerpos sin tener en cuenta las causas que lo producen, limitándose esencialmente, al estudio de la trayectoria en función del tiempo), implementadas por las peculiaridades de este espacio concreto. “Nos topamos con dificultades de diverso tipo, la puramente geométrica, debida a la complejidad de las cabinas; la escasez de datos sobre prestaciones cinemáticas de los humanos en el entorno concreto de evacuación, y la complejidad algorítmica”.

Investigaciones ampliables
En la actualidad el profesor Hedo imparte docencia adscrito al departamento de Física Aplicada a la Ingeniería Aeronáutica de la ETSI Aeronáuticos de la UPM, pero continuará investigando en el proceso de evacuación de los aviones, “implementando y validando el modelo de evacuación para aviones de fuselaje ancho o con otras configuraciones y con el deseo de que haya más personas interesadas en compartir esta tarea”.

EN BUSCA DEL AVIÓN RESPETUOSO CON EL MEDIO AMBIENTE

De aero.upm.es:

Investigadores de la Universidad Politécnica de Madrid buscan técnicas que disminuyan el consumo de combustible de los futuros aviones comerciales mediante mejoras aerodinámicas que disminuyan la resistencia de las aeronaves al viento.

Son numerosos los proyectos de investigación en aviación civil a nivel internacional que tratan de hacer posible la adecuación de la aeronáutica a los objetivos que la Unión Europea marca en el denominado informe ACARE 2020. Antes de esa fecha habrá que: reducir un 20% la tasa de accidentes, desarrollar un sistema de tráfico aéreo que gestione 16 millones de vuelos al año, reducir a la mitad la contaminación acústica, reducir a la mitad las emisiones de dióxido de carbono y reducir en un 80% las emisiones de dióxido de nitrógeno.

Estos tres últimos puntos, de mejora del impacto medioambiental de los aviones, focalizan las investigaciones de un grupo de universidades, institutos de investigación e industrias aeronáuticas europeas, entre las que se encuentra la Universidad Politécnica de Madrid. Dos profesores y un doctorando de la Escuela Técnica Superior de Ingenieros Aeronáuticos participan en el proyecto AVERT (―Aerodynamic Validation of Emmision Reducing‖).

Técnicas de control activo del flujo alrededor del avión
La reducción de la resistencia de los aviones es directamente proporcional a la reducción del consumo de combustible, algo que tiene también gran influencia en el ruido y la carga útil. Por ello, ―los esfuerzos por reducir la resistencia de las aeronaves han sido una constante en la aeronáutica desde los hermanos Wright‖, señala Jiménez

Menos consumo del avión significa, por ende, menos contaminación y menos CO2. Ese es el objetivo final de AVERT, el desarrollo de nuevas tecnologías que permitan un control activo de flujo (ACT) tanto a baja como a alta velocidad. A baja velocidad, es decir, en el despegue y el aterrizaje, el flujo alrededor del avión tiende a separarse del ala con lo que el ala dejaría de sustentar y el avión de volar. ―En AVERT —afirma el catedrático— se están probando distintas técnicas para controlar ese flujo y que no se separe, sin tener que recurrir tanto a la reconfiguración mecánica del ala (uso de flaps y slats para no entrar en pérdida). En esencia, son distintas versiones de inyectar chorros de aire en sitios bien elegidos para que hagan el mismo efecto que esos dispositivos hipersustentadores que se usan en la actualidad‖.

El control del flujo a alta velocidad (durante el vuelo) es más complicado, pues el flujo no se separa pero se hace inestable y turbulento, lo que aumenta la resistencia de fricción entre el aire y el avión y por lo tanto, otra vez, el consumo. En este caso, que es el que ocupa a los investigadores de la UPM dentro del proyecto, se trata de manejar la turbulencia, bien retrasando su aparición lo más posible, o bien disminuyendo su efecto una vez que aparece. Como reconoce Jiménez Sendín, ―la física de la turbulencia tiene aún puntos oscuros y un control completo de la misma es más bien un objetivo a 50 años‖.

La aerodinámica al servicio del medio ambiente
Para la validación aerodinámica de reducción de emisiones se han empleado tanto simulaciones numéricas que ―nos permiten entender la física‖ como validaciones en túnel de viento, ―ya que los ordenadores no están aún a la altura de simular un avión a escala real, y al final hay que comprobar todo en el túnel‖.

Una de las opciones para optimizar la superficie de la aeronave es la fijación de las denominadas ―riblets‖, unas ranuras colocadas en el sentido del flujo que limitan la fricción en el flujo turbulento y reducen la resistencia entre un cinco y un ocho por ciento. Se asemeja a los dentículos que presentan los tiburones en su piel y que han llegado a inspirar la creación de bañadores que permiten una mejor aerodinámica en el agua. En las fases finales en que se encuentra el proyecto ―podemos afirmar –explica Jiménez Sendín– que hemos entendido relativamente bien la aerodinámica de las ―riblets‖, y ahora el problema es más bien de fabricación y económico, puesto que la idea es que las superficies no sólo sean eficientes aerodinámicamente hablando, sino que puedan fabricarse e incorporarse al avión a un coste razonable y con una vida útil no demasiado corta‖.

En busca del avión respetuoso con el entorno
Desde un punto de vista económico, lo más importante es aumentar la carga (llevar más pasajeros) y aumentar la autonomía. ―Hoy se puede ir sin escalas desde Australia a
USA, mientras que mis padres tenían que hacer escala en las Azores para llegar a Nueva York‖, recuerda el profesor. Ya que en el mundo tan sólo hay dos compañías que fabrican aviones de transporte (Airbus en Europa y Boeing en USA), ―el que entienda cómo hacer aviones que pesen menos, gasten menos y hagan menos ruido, venderá y sobrevivirá en este mercado de competencia a dos bandas‖. Y todo ello sin olvidar la seguridad, pues en la ingeniería aeronáutica se trata en primer lugar de que los aviones sean seguros, y luego eficientes.

En cuanto a la reducción del ruido, otro de los objetivos perseguidos por la industria europea, se considera que, en vista de los resultados obtenidos hasta el momento, es una meta alcanzable, la cuestión es determinar en cuánto se podrá disminuir la contaminación acústica. En la opinión del responsable de AVERT en la ETSI Aeronáuticos, ―el ruido no ha sido una gran preocupación del diseño de los aviones hasta hace relativamente poco, y será de los aspectos que más mejoren a corto plazo‖.

En el caso de AVERT se trata de estudiar la influencia de la geometría de la pared sobre el flujo, pero entender cómo funciona la turbulencia en cualquier caso particular aclara cada día más cómo funcionan los flujos turbulentos, un problema físico que va más allá de la aeronáutica. Por ejemplo, el alcance de las pelotas de golf, también se ve influido por este fenómeno, lo que explica que las pelotas que se emplean en este deporte estén cubiertas de hoyuelos en vez de presentar una superficie lisa, ya que en el segundo caso la resistencia aerodinámica sería mayor y no permitiría sus desplazamientos de grandes distancias a través del aire. Igualmente, todos los vehículos, las tuberías o el mar están controlados por la turbulencia del flujo.

miércoles, 4 de noviembre de 2009

AVIACIÓN Y COMERCIO DE EMISIONES

De aero.upm.es:

Ante las exigencias europeas del control de emisiones de gases de efecto invernadero, el profesor de Transporte Aéreo de la ETSI Aeronáuticos de la Universidad Politécnica de Madrid, Arturo Benito, repasa cómo se aplicará la nueva legislación a la flota aeronáutica española.
En noviembre del pasado año 2008 la Unión Europea (UE) aprobó una Directiva por la cual se incluían los vuelos de la aviación civil internacional, despegando o aterrizando en aeropuertos de la UE, dentro del esquema europeo de comercio de emisiones (ETS), a partir del año 2012. Recientemente España ha transpuesto la Directiva a su legislación y puesto en marcha un proceso muy complejo que obligará a las compañías aéreas y a los operadores civiles no comerciales a reportar anualmente su volumen de tráfico, medido en Toneladas-kilómetro transportadas (TKT) y las toneladas de anhídrido carbónico CO2 emitidas por sus vuelos.
El mecanismo de compra-venta de emisiones
El comercio de emisiones es un mecanismo previsto en el Protocolo de Kioto (diciembre 1997) para obtener una máxima eficiencia en la reducción de gases de efecto invernadero, que son los más influyentes en el calentamiento de la atmósfera terrestre e inductores del cambio climático. Dado que el más importante de estos gases, el CO2, causa exactamente el mismo efecto por unidad emitida con independencia de la fuente o el lugar donde se produzca, algunas industrias pueden obtener reducciones de emisiones a menor precio que otras, por lo que alcanzarían sus objetivos fácilmente, a coste bajo. Las actividades comerciales, como la aviación, donde ya se han dado grandes pasos en avances de eficiencia energética, tienen más difícil y con mayor gasto, mitigar aún más sus emisiones, especialmente si se trata de un sector de gran crecimiento a medio plazo. Debe tenerse en cuenta que, dependiendo del precio del petróleo, entre un 20 y un 30%
Notas de prensa
2
de los costes de las compañías aéreas corresponden al combustible, lo que es un formidable incentivo de ahorro.
La base del comercio de emisiones consiste en establecer un sistema de topes e intercambios (cap and trade, en la terminología anglosajona). Cada operador de una actividad recibe un objetivo de limitación del CO2 proveniente de su negocio. Si emite más, debe compensar sus excesos comprando derechos de emisión a otros operadores. Si emite menos, la diferencia con el máximo permitido se transforma en derechos de emisión, que puede vender a quienes lo necesiten. De esta forma se asegura que todos colaboren al objetivo final, que las reducciones de CO2 se realicen en las áreas de menor coste y que incluso los operadores que cumplan con sus límites, tengan un incentivo adicional (la venta de derechos) para seguir trabajando en reducir las emisiones.
En sus trabajos por alcanzar sus objetivos nacionales, marcados en el Protocolo de Kioto, la Unión Europea instauró un sistema de comercio de emisiones (ETS) que empezó a funcionar en el año 2005, incluyendo seis sectores industriales de fuentes de emisión fijas, cubriendo cerca del 50% del total de emisiones de la UE. Sin embargo, la aviación internacional se excluyó de los objetivos de Kioto, al no haber acuerdo sobre cómo se atribuían las emisiones de los vuelos que atraviesan el espacio aéreo de más de un país, dejando a la Organización de Aviación Civil Internacional (OACI) la responsabilidad de regular estos aspectos. Ante la falta de acuerdo dentro de OACI, la UE decidió tomar medidas e incluir, por primera vez en el mundo, las emisiones de unas fuentes móviles, como los aviones en su ETS, ya en funcionamiento.
Mejorar la eficiencia energética con un tráfico aéreo en crecimiento
La aviación civil supone, aproximadamente, el 2% de las emisiones mundiales de CO2, único gas de efecto invernadero emitido por los motores de aviación, a razón de 3,15 kilogramos por cada kilo de queroseno consumido. Sin embargo, está generalmente aceptado por la comunidad científica que las emisiones a gran altura de óxidos de nitrógeno, compuestos de azufre, partículas sólidas y vapor de agua, pueden tener también un efecto neto de calentamiento atmosférico. No obstante, ante la falta de suficientes elementos para cuantificar este efecto añadido, la UE ha optado por avanzar en el control del CO2 a la espera de mejor información sobre la repercusión del resto de las emisiones, que podrían aumentar un 75% el impacto del CO2.
El objetivo de la UE en aviación es mantener sus emisiones al nivel medio del trienio 2004-2006. En la última década, las compañías aéreas han venido mejorando su eficiencia energética (emisiones por TKT) a una media de un 2% anual, buena prueba del gran esfuerzo tecnológico y operativo del sector, pero aumentando el volumen de tráfico en más del 4%. Por tanto, las emisiones totales crecen y, de seguirse esta tendencia, ahora interrumpida temporalmente por la crisis económica, el sector tendría que comprar derechos de emisión para mantener su crecimiento. El coste total para la industria es difícil de evaluar, puesto que depende en gran manera de la evolución de la economía, pero para el año 2012 sólo, podría oscilar entre 200 y 500 M€. Diferentes programas de investigación en nuevas tecnologías de aviones comerciales, como el
3
europeo ACARE, proporcionarán grandes mejoras en la próxima década. La Asociación Internacional de Transporte Aéreo (IATA) considera posible llegar a un modelo de crecimiento sin aumento de emisiones en el año 2020.
El mecanismo de aplicación de la Directiva a la aviación es muy complejo. Se basa en el cálculo de las emisiones en los años 2004, 2005 y 2006, realizado por EUROCONTROL, para establecer el objetivo. Un 85% de esas emisiones se transformarán en permisos gratuitos que se repartirán entre los operadores proporcionalmente a su tráfico (TKT) del año 2010. Un 15% de los permisos irán a subasta y, por encima de esto, los operadores tendrán que comprar permisos en el mercado actual. Antes del 31 de agosto de 2009 los operadores deberán enviar a las Autoridades del país al que estén asignados su plan de cumplimiento de la Directiva, que será controlado y verificado anualmente por un organismo independiente. Todo ello implica que, aunque el primer año de vigencia sea el 2012, la preparación del mecanismo de cálculo, control, asignación, subasta, etc. ha empezado ya, con vistas a funcionar en 2010, año clave para la distribución de permisos y el rodaje general de todo el sistema.
La reunión de la Conferencia de las Partes nº 15, a celebrar en Copenhague en diciembre de 2009, introduce un factor de incertidumbre en todo este proceso. Aunque nadie espera que la aviación quede excluida de la lucha contra el cambio climático, existe la posibilidad de que el ETS europeo se expanda a otros países y, más allá del año 2012, tanto los objetivos sectoriales como los medios de ejecución sean modificados, introduciendo variaciones en todo el proceso antes explicado.
Asistencia técnica de la UPM en el control de emisiones
La Universidad Politécnica, a través del Departamento de Infraestructuras, Sistemas Aeroespaciales y Aeropuertos de la ETSIA, participa de dos maneras en estos trabajos. Por una parte, presta asesoría técnica a la Dirección General de Aviación Civil española y participa en el Grupo de Trabajo Técnico MRV (Monitoring, Reporting and Verification), que establece todo el mecanismo anteriormente citado de aplicación de la Directiva. También, en colaboración con la Fundación científica Innaxis, ha trabajado con EUROCONTROL para perfeccionar el cálculo de las emisiones en el período 2004-2006, que constituyen el objetivo sectorial de la aviación.

martes, 3 de noviembre de 2009

Acto homenaje a Gregorio Millán Barbany

Del periódico aeroespacial:

La Escuela Técnica Superior de Ingenieros Aeronáuticos homenajeó el pasado 28 de abril a Gregorio Millán Barbany, padre de la aerotermodinámica y decano y presidente del COIAE y de la AIAE entre 1968 y 1972.
Diferentes personalidades del mundo académico y aeroespacial se dieron cita el pasado 28 de abril en el Salón de Actos de la Escuela Técnica Superior de Ingenieros Aeronáuticos de Madrid para homenajear a Gregorio Millán Barbany, padre de la aerotermodinámica.
Durante este acto pronunciaron unas palabras el profesor Amable Liñán, discípulo de Gregorio Millán, Antonio Barrero, César Dopazo, Rodolfo Martín Villa y Antonio Martín-Carrillo.

También estuvieron presentes el rector de la Universidad Politécnica de Madrid, Javier Uceda; el director de la ETSI Aeronáuticos, Miguel Ángel Gómez Tierno; y el hijo del homenajeado, Teodoro Millán de la Torre.

El decano del COIAE expuso cuál había sido su relación con Gregorio Millán y su trabajo al frente del Colegio y de la Asociación entre los años 1968 y 1972. Empezó y acabó su intervención diciendo: "Yo conocí a Gregorio Millán Barbany en la última etapa de su vida y tuve la suerte y el privilegio de trabajar con él".

Millán Barbany fue miembro de la Real Academia de Ciencias Exactas, Físicas y Naturales y presidente de su sección de Exactas. En palabras de Amable Liñán, "fue una de las personalidades que más contribuyó, por sus cualidades polifacéticas, al desarrollo científico y tecnológico español".
Finalizó sus estudios de Ingeniería Aeronáutica, en 1945, con el número 1 de su promoción. Su trayectoria profesional estuvo dedicada a la docencia e investigación en el INTA y en la propia ETSIA. Aquí fue donde encontró a los que conformarían su "Grupo de Combustión": Segismundo Sanz Aránguez, Jesús Salas Larrazábal, Carlos Sánchez Tarifa, José Manuel Sendagorta e Ignacio Da Riva, a los que se unieron posteriormente Francisco García Moreno, Pedro Pérez del Notario y Amable Liñán Martínez. Todos ellos colaboraron con él en la elaboración de su monografía "Aerothermochemistry", de cuya edición se cumplieron recientemente 50 años.

De 1957 a 1961 fue director general de Enseñanzas Técnicas del Ministerio de Educación Nacional, donde también fueron relevantes sus aportaciones para la modernización de la enseñanza en las Escuelas de Ingeniería. A los 85 años, falleció en Madrid, el 26 de noviembre de 2004.

EXPOSICIÓN EN LA ETSIA
Además del acto de homenaje, la Biblioteca Aeronáutica organizó una exposición dedicada a Gregorio Millán y al Grupo de Combustión. A través de 10 paneles, y acompañados de los libros y publicaciones de estos investigadores, se ha repasado la importante labor de todos ellos en el desarrollo científico, tecnológico e industrial del país en este ámbito.
La Escuela Técnica Superior de Ingenieros Aeronáuticos también ha decidido reeditar la monografía "Aerothermochemistry", resultado de un largo proceso de investigación, se publicó en su forma definitiva, mecanografiado en 1958. Fue editado por el INTA con una tirada de 800 ejemplares. Supuso un hito en la investigación española en temas de combustión y tuvo gran difusión en centros de investigación y universidades de todo el mundo. La Aerotermoquímica se convertía en una disciplina que por primera vez permitía analizar de modo sistemático los procesos de Combustión.

lunes, 2 de noviembre de 2009

Trenes de alta velocidad: Analizamos al enemigo de la aviación regional

Reproducimos a continuación uno de los artículos aparecidos en la revista ITAVIA, del COITAE

Trenes de alta velocidad: Analizamos al enemigo de la aviación regional

Autor: Alberto García Pérez, Ingeniero Técnico Aeronáutico

Por cortesía de Revista ITAVIA. (Colegio de Ingenieros Técnicos Aeronáuticos).

Por cortesía de www.mundoaeronautico.es

El tren de alta velocidad se está convirtiendo en un serio competidor de la aviación regional para trayectos inferiores a 600 Km. La ausencia de controles de seguridad tan rigurosos que permiten un acceso rápido al propio tren, la flexibilidad en los horarios y la enorme comodidad una vez dentro, con acceso a Internet, cafetería etc. son atractivos cada vez más fuertes para el gran público. El resultado es que rutas aéreas tan importantes y establecidas como el Puente Aéreo Madrid-Barcelona están recibiendo un serio varapalo y han perdido el 46% de los viajeros en poco más de 1 año de operación den tren de alta velocidad. Para el 2011, Renfe estima que conseguirá el 56% hasta alcanzar 7.4 millones de pasajeros. En el presente artículo analizamos al “enemigo”.

  • Introducción histórica

Los griegos y, posteriormente, los romanos emplearon surcos en la piedra para guiar a los carros con el fin de facilitar el transporte terrestre. En la Edad Media, los germanos comenzaron a emplear vías de madera para sacar plomo de las minas. La razón era obvia: una rueda que vaya sobre tierra, especialmente si está mojada, necesita de un gran esfuerzo para desplazarse, pero si se realiza sobre una superficie dura todo se vuelve más fácil. Sin embargo, la solución era muy cara y sólo se aplicaba en zonas muy concretas.

La llegada de las pesadas máquinas de vapor a principios del siglo XIX obligó a replantearse de nuevo el uso de vías para desplazar a estos artilugios tan útiles pero con tantas limitaciones de transporte. La inversión en lo que ahora conocemos como I+D consiguió que las máquinas de vapor redujeran progresivamente su tamaño. Para 1829, habían adquirido ya un tamaño aceptable y el ingeniero de minas británico George Stevenson dio el gran salto al poner unas ruedas a una turbina de vapor. Surge así el primer tren, conocido como “El Cohete”, dotado de pistones, movidos por el vapor generado, que actuaban directamente sobre las ruedas. Podía así mover pesos de hasta 40 toneladas, a velocidades no superiores a 40 Km/h.

El uso de líneas férreas comenzó a expandirse progresivamente. Para 1840, algunas líneas férreas alcanzaban ya los 100 Km/h, pero sobre vías con un mantenimiento muy pobre y emplean infraestructuras no muy robustas. De tal manera que si un puente se derrumbaba por la noche, el maquinista no lo vería hasta que fuera demasiado tarde. La siniestralidad en aquella época era elevada, ya que además los raíles a veces se desprendían y atravesaban el suelo de los vagones hiriendo a menudo a los pasajeros o estropeando la carga transportada. Los trenes también tenían una seria limitación impuesta por su gran masa: no se podían detener rápidamente. La solución a este problema aparecería en 1869 cuando George Westinghouse inventó el sistema de frenada automática mediante el uso de aire comprimido que actuaba sobre unas válvulas de frenado.

La resolución progresiva de los principales problemas técnicos combinada con una seguridad y fiabilidad creciente recibió el apoyo del gran público que vio al tren como un medio de transporte cómodo y rápido, especialmente en países con tanta extensión como Estados Unidos. La red viaria norteamericana se incrementó así entre 1860 y 1900 de 40.000 a 320.000 Km cubriendo prácticamente el país. Para comienzos de la Primera Guerra Mundial, ya existían frenos automáticos, vías de acero, líneas telegráficas alrededor de las líneas férreas y vagones fabricados en acero. Los trenes alcanzaban ya los 130 Km/h y hacia 1930 pudieron alcanzar los 160 Km/h, aunque empleando siempre máquinas de vapor superándose los 200 Km/h en 1939.

A mediados de los años 30 aparecieron las primeras máquinas diesel eléctricas, que resultaban más económicas y pronto ganaron en popularidad. El advenimiento del automóvil y la mejora de la red de carreteras así como la mejora del transporte aéreo hicieron que el tráfico ferroviario redujera su capacidad y se concentrara fundamentalmente en el tráfico de mercancías. Sin embargo, el tren bala japonés relanzó de nuevo el uso del tren al reducir significativamente los tiempos respecto del automóvil.

  • El advenimiento del tren de alta velocidad

Japón fue uno de los últimos países en tener una red ferroviaria, que no llegó a instalarse hasta mediados del siglo XIX. Entre 1864 y 1900 se construyeron tantas líneas férreas, que la agencia que construía los trenes se convirtió en la primera empresa del país nipón.

El modelo de crecimiento ferroviario llegó a su fin tras la Segunda Guerra Mundial, ya que los ferrocarriles habían sido sobreexplotados y no se había realizado ningún mantenimiento. La ausencia de autopistas significativas hizo que la situación fuera más crítica. A mediados de los años 1950, el gobierno japonés se puso manos a la obra para solventar este problema, creando una línea férrea que uniera Tokio con Osaka. Pero los responsables mintieron sobre su coste al gobierno japonés, que de otra manera la hubiera rechazado, y consiguieron además un crédito del Banco Mundial tras convencerle de que Japón era todavía un país en vías en desarrollo. El nuevo “Tren Bala”, inaugurado en 1964 para las Olimpiadas de Tokio, instalaba motores en cada vagón, lo que permitía distribuir el peso y aumentar la velocidad significativamente hasta los 250 Km/h. Hoy Japón dispone de más de 1600 Km de vías de alta velocidad y han transportado más de 2.800 millones de pasajeros sin ningún accidente, con velocidad en continuo crecimiento hasta los 300 Km/h actuales que alcanza el tren de aluminio Nozami. No existen curvas cerradas o cruces, lo que reduce significativamente los accidentes. También existen operarios que comprueban cada día el estado de la vía.

En Europa, la tecnología del tren de alta velocidad ha estado centrada en Francia y Alemania. El francés TGV entró en servicio en 1981 y fue el resultado de un programa lanzado por el gobierno francés a mediados de los años 60 que quiso modernizar el tráfico ferroviario, como el Concorde en el ámbito aeronáutico. En 1972, alcanzó 317 Km/h, propulsado por una turbina de gas, estableciendo un nuevo récord mundial. El secreto era un tren ligero de peso, con menor número de ejes al compartir dos vagones el mismo eje, y dotados de un gran motor. Se creó una nueva vía en 1976 para unir París y Lyon y se abriría al público a finales de 1981, consiguiendo en servicio una velocidad máxima de 262 Km/h. Con 17 millones de pasajeros transportados y tras 20 años de servicio, todavía no ha tenido ningún accidente. Su demanda por parte de los usuarios es tal que incluso existe incluso una versión de dos pisos. Actualmente, el TGV francés está en posesión del record mundial de velocidad desde 1997 cuando alcanzó los 575 Km/h en un tramo de vía especial y sin curvas, aunque su velocidad de crucero en operación comercial suele ser de 300 Km/h.

En Alemania, el tren ICE 3, desarrollado por la canadiense Bombadier y por la alemana Siemens, tiene una potencia total de 10.000 CV distribuidos a lo largo de sus 8 vagones, cada uno dotado de 2 motores eléctricos que funcionan a 25.000 V. El tren es semiautomático y tiene un sistema similar al de un piloto automático en aviación. Alcanza velocidades que exceden los 300 Km/h.

  • Requisitos técnicos

Antes de comentar los requisitos técnicos, comencemos por la definición de tren de alta velocidad. La Unión Internacional del Ferrocarril denomina así aquellos trenes que en vías especiales viajan por encima de 250 km/h o de 200 Km/h en vías convencionales.

Las altas velocidades que se alcanzan con la nueva generación de trenes requieren de numerosos cambios tanto en las vías férreas como en el propio tren. La vía férrea en sí debe ser una línea continua sin juntas y se conforma mediante segmentos de vías de larga longitud, de hasta 108 m, que posteriormente se sueldan para reducir las vibraciones del tren en crucero. El ejemplo más claro de este requisito se aprecia en el Eurotúnel que atraviesa el Canal de la Mancha entre Inglaterra y Francia. En la parte francesa, los trenes pueden alcanzar velocidades de hasta 250 Km/h, debido a que la vía férrea está realizada en una única pieza. Sin embargo, al llegar al Reino Unido, los trenes tienen que reducir su velocidad hasta los 100 Km/h debido a que el sistema británico está compuesto por vías antiguas unidas entre sí por medio de tornillos.

Por otra parte, el trazado debe ser tan recto como sea posible, evitando al máximo las curvas y las pendientes. Los peraltes y los radios de las curvas son significativos. Radios de menos de 5 Km son considerados como muy ajustados en términos de alta velocidad. Algunos modelos, como el Accela 3 norteamericano que une Boston, Nueva York y Washington, poseen vagones basculantes que se controlan por medio de un ordenador y un sistema de actuadores hidráulicos que permiten que el tren pueda tomar curvas a alta velocidad sin tanto peralte o con menor curvatura. El resultado es que el pasajero no tiene que inclinarse en cada curva y el tren puede alcanzar hasta 240 Km/h en vías férreas convencionales.

Todos estos requisitos obligan normalmente a crear gran número de túneles y puentes, lo que aumenta significativamente el coste de la línea férrea. Por otra parte, los largos túneles necesarios obliga al uso de tuneladoras, con potencias de hasta 5000 CV de potencia y complejos sistemas de transporte de escombros, que permiten avanzar hasta casi 40 m al día, velocidad muy alta en cuanto a construcción de túneles se refiere, pero muy lenta para los grandes trazados ferroviarios, siendo ésta una de las causas de la gran duración de las obras.

El sistema de señalización debe ser distinto también al del ferrocarril convencional ya que las altas velocidades alcanzadas impiden al maquinista leer las indicaciones con tiempo suficiente para reaccionar, especialmente en condiciones de tiempo adverso. Se recurre, por tanto, a instalar balizas en los travesaños de la vía que son captadas por un sistema de antenas situadas en la parte baja del tren y que ya se transmiten al cockpit del maquinista. Con el fin de tener suficiente redundancia, se instalan 4 antenas, dos en la parte delantera y otras dos en la parte trasera. La información codificada que se recibe contiene los siguientes elementos:

  • Velocidad máxima segura en el tramo actual
  • Velocidad objetivo al final del tramo actual
  • Velocidad objetivo al final del siguiente tramo. Con el fin de reducir el estrés de trabajo del maquinista, se indica en pantalla la velocidad al final del siguiente tramo en forma de parpadeo del valor, permitiendo así captar su atención y que sepa con antelación un posible cambio de velocidad.
  • Longitud del tramo, aunque su longitud suele ser de 1.5 kilómetros, puede variar ligeramente en algún tramo en concreto. Por cada tramo, sólo se permite la circulación de un solo tren.
  • Comprobación cíclica de redundancia, que permite comprobar si la señal se ha leído correctamente o si existe algún error.

Así pues, la navegación, si se permite la comparación, es similar al ILS aeronáutico, donde las balizas proporcionan información al maquinista sobre los valores aconsejados de navegación para cada tramo, pero manteniendo el maquinista el control sobre el tren en todo momento.

Por norma, las condiciones de la vía no deben variar durante la longitud de cada tramo, es decir, la pendiente debe ser constante. Sin embargo, la capacidad de frenado del tren suele exceder esta longitud de frenado, por lo que el proceso de frenado debe comenzarse normalmente a lo largo de 4 a 6 sectores. Con este sistema, se busca maximizar el uso de la vía férrea sin necesidad de aumentar los requisitos de frenado. Así, por ejemplo, en Francia existen líneas de alta velocidad que permiten separaciones entre trenes de hasta 3 minutos para velocidades de crucero de hasta 360 Km/h. En caso de fallo en la señal de un determinado segmento, se considera que el segmento se haya ocupado, lo cual tendrá un impacto en la velocidad del tren precedente.

Los trenes por su parte emplean necesariamente motores eléctricos, ya que son más ligeros y más económicos de operar que los motores diesel. La electricidad se hace llegar normalmente por medio de una catenaria situada encima del tren que también está sujeta a serias restricciones. Si la catenaria está demasiado floja, el pantógrafo, el aparato encargado de recoger la energía eléctrica y pasarla al motor, produciría un ruido periódico, que sería molesto para los pasajeros, además de producir peligrosos arcos eléctricos. Es por ello que también se comprueba concienzudamente su distancia vertical a lo largo de todo el trayecto.

Aerodinámicamente, el diseño del tren también es muy importante, ya que las velocidades alcanzadas, alrededor de 350 Km/h, se sitúan en el entorno de las velocidades de rotación de los grandes aviones comerciales. El morro, por ejemplo, suele ser aplastado para reducir la circulación de aire por debajo del tren y evitar así que el tren de eleve como en un perfil aerodinámico, siendo el modelo picopato de TALGO quizá el más representativo. Las altas velocidades alcanzadas también producen estelas de alta energía que dan lugar también a fuertes vibraciones. Para amortiguarlas, se recurre al aumento de la masa del tren mediante el uso de lastre especialmente en los vagones traseros. También debido a estas estelas de alta energía es necesario separar las vías paralelas a más distancia de la habitual, con el fin de evitar que en el cruce de dos trenes viajando en sentido contrario se produzca una fuerte interacción con los campos de presiones generados.

Los vagones del TGV francés, y también en otros modelos de alta velocidad, comparten ruedas, es decir, que dos vagones se apoyan sobre el mismo conjunto de ruedas. Esta configuración reduce la complejidad de cada vagón, tiene la ventaja de que se alejan las ruedas del habitáculo, dando lugar a un interior mucho más amplio y silencioso además de reducir su altura total, lo que beneficia tanto a la aerodinámica como a la estabilidad del tren.

Al igual que en los aviones, existe un sistema de “cajas negras” que graban tanto las acciones del maquinista como las señales medidas por los sensores más importantes para la navegación con el fin de poder entender las causas de un potencial accidente y evitar así que se vuelva a repetir en el futuro.

  • Trenes de Levitación Magnética

En 1991, un nuevo tipo de tren, denominado MLX 01, consiguió desplazarse flotando en un colchón magnético y estableciendo automáticamente un nuevo récord mundial de velocidad al alcanzar los 552 Km/h. El concepto empleado era revolucionario: en lugar de emplear ruedas y raíles, se empleaban electroimanes a lo largo de todo el tren, de tal manera que éste se comporta como el polo sur, mientras que la vía es el polo norte, según se esquematiza en la figura adjunta. La atracción entre ambos polos hace que el tren se eleve hacia la vía, pero sin llegar nunca a contactar con ella, ya que antes se alcanza el equilibrio de fuerzas electromagnéticas y el peso del propio tren. Para asegurar el centrado lateral, también se instalan electroimanes a ambos lados, impidiendo así que el tren abandone la vía.

El tren magnético ahorra también energía ya que únicamente se energiza los segmentos situados inmediatamente por delante del tren, así como los tramos que el propio tren cubre en cada instante. Si el tramo de vía tiene polo positivo, los electroimanes del tren cambian a polo negativo, de tal manera que se produce una onda electromagnética que hace que el tren avance. Regulando la velocidad de dicha onda se consigue que el tren acelere o frene. Además, como no existe contacto físico, en su interior sólo se oye el ruido aerodinámico, por lo que resulta muy silencioso. Además, al eliminar el contacto entre la rueda y la vía, y por consiguiente el desgaste de sus componentes, es capaz de alcanzar los 1000 Km/h con un mínimo mantenimiento.

A pesar de todas estas ventajas, y que incluye la ausencia de motor propiamente dicho, la implantación de esta tecnología requiere de un enorme esfuerzo económico. La empresa alemana Transrapid, por ejemplo, ha invertido más de 1000 millones de dólares en un demostrador tecnológico que alcanza los 400 Km/h pero que no transporta pasajeros de forma regular. China, sí ha dado ese salto en 2002 cuando abrió una línea de 30 Km para unir el aeropuerto de Shangai con el centro financiero de la ciudad. El principal inconvenientes es el coste de aplicarlo a una vía comercial de largo recorrido es demasiado caro, ya que es necesario construir de nuevo todas las infraestructuras. Además, no son mucho más rápidos que los trenes de alta velocidad convencionales por lo que muchos ponen en duda este sistema como alternativa de futuro.

  • Conclusiones

Los trenes de alta velocidad representan un duro rival para la aviación regional por varios motivos. Por una parte, las fuertes subvenciones del estado reducen significativa el precio de los billetes. Desde el punto de vista operativo, el usuario también percibe una mayor comodidad al viajar de centro a centro de cada ciudad, sin preocuparse de estar con demasiada antelación en la estación y con la posibilidad de coger el siguiente tren sin ningún problema. Además, la enorme comodidad durante el viaje, sin apenas vibraciones ni baches, con acceso a internet y con posibilidad de darse largas caminatas entre vagones supone un reto difícilmente de conseguir por la aviación. Desde el punto de vista de las emisiones, el tren, al ser eléctrico, es también más eficiente y emite en su conjunto menos CO2 que los aviones. Con todos estos factores en contra, es fácil comprender por qué el tren de alta velocidad ya ha conseguido casi la mitad de los viajeros entre Madrid y Barcelona y supera ya en plazas disponibles a la suma de todas las aerolíneas que operan en el puente aéreo, por no citar el 99.2% de puntualidad de media. Una situación difícil de recuperar que tendremos que asumir.

domingo, 1 de noviembre de 2009

Willy Messerschmitt en España

De la página de EADS:

Después de la Segunda Guerra Mundial, muchos de los antiguos constructores de aviones alemanes trataron de sobrevivir produciendo artículos de consumo diario. Fue así que Willy Messerschmitt produjo casas prefabricadas y motonetas. Como hasta la firma de los Tratados de Roma en 1955 a Alemania le estaba prohibido crear una industria de aviación nacional, muchos antiguos especialistas en aeronáutica como Claude Dornier, Ernst Heinkel y Willy Messerschmitt buscaron nuevas posibilidades de ocupación en el extranjero. España se presentaba como un lugar elegible.

Ya antes de que estallara la Segunda Guerra Mundial, la firma española Hispano Aviación S.A. (HASA) había comenzado a fabricar bajo licencia el Messerschmitt Me 109 G. De este se derivó la variante HA 1109, con diferentes versiones. Puesto que ya no podìan suministrarse los motores Daimler Benz DB 605 que se necesitaban, el concesionario español decidió primero emplear motores de Hispano-Suiza, pero después recurrió a los Rolls-Royce del tipo Merlin, que habían tenido éxito en el Supermarine Spitfire. Entre otras cosas por asuntos de resistencia, la HASA entró en contacto con el antiguo jefe de estática de Messerschmitt AG, Julius Krauss, y con el propio Willy Messerschmidt. Krauss atendió primero, independientemente del diseño del Me 109, las réplicas que se producían en España. En 1951 emprendió Messerschmidt su primer viaje a España, que dio como resultado el establecimiento de contactos importantes con la industria aeronáutica española. Después de un segundo viaje realizado el mismo año, se decidió a abrir una oficina de diseño en Sevilla, conjuntamente con la Hasa.

En un memorándum redactado en julio de 1951, valoró como ciertamente positiva la situación de la industria aeronáutica española, aunque advirtió sobre lagunas en la producción de elementos semiterminados, la construcción de motores y el equipamiento. Presentó numerosas proposiciones al gobierno de Madrid, entre ellas el desarrollo de aeronaves de reacción y su construcción hasta la fase de serie, así como el desarrollo de un avión construido mediante módulos, que se pudiera adaptar fácilmente como aeronave de transporte, de pasajeros o de bombardeo, así como el desarrollo de motores. El gobierno español sólo aceptó algunos puntos de ese catálogo. España insistía en un apoyo oficial por parte del gobierno Federal de Alemania, que se expresó positivamente, pero no decidió efectuar acciones concretas, salvo un contacto directo con Messerschmitt. Sobre la base de un contrato de asesoramiento con Hispano Aviación, Messerschmitt acometió primero, con jóvenes ingenieros alemanes, el desarrollo de un avión de entrenamiento con un motor de 330 kW (450 caballos de fuerza), del cual se derivó el HA 100, así como un conjunto de tareas para un reactor de entrenamiento, el futuro HA 200 Saeta.