-
Guía de plantas
Guía de mariposas
Guía de especies marinas
ENERGÍAS RENOVABLES y TECNOLOGÍAS----------
© Textos-fotos-videos: Merche S. Calle / Juan Enrique Gómez / Waste

-
-
-
-
-
-
-

Tecnologías y alternativas energéticas
La energía alternativa se impone en la evolución tecnológica
Por Benedicto Cuervo Álvarez.
En las primeras etapas de la evolución humana, durante el denominado Paleolítico Inferior, el Homo habilis tardó decenas de miles de años en utilizar las más sencillas técnicas líticas, como las lascas desprendidas de los núcleos de sílex, para utilizarlas como utensilio en el troceado de la carne o en el trabajo con las pieles de los animales salvajes cazados por el hombre primitivo. También, al final de dicho periodo histórico (P. Inferior), el Homo habilis inventó el fuego después de un proceso muy largo de intentos fallidos. 
En definitiva, los primeros seres humanos necesitaban periodos de tiempo muy largos, de hasta cientos de miles de años, para los más elementales avances tecnológicos.
Sin embargo, durante nuestra Edad Contemporánea, las innovaciones tecnológicas avanzas más rápidamente. En tan sólo los dos o tres últimos siglos (SS. XVIII Pr. XXI), el hombre fue capaz de inventar la máquina de vapor, el motor de explosión, la energía eléctrica y nuclear o subir al espacio en una nave y conquistar la Luna.
De tal forma que para muchos historiadores y economistas, estaríamos en el inicio de una nueva revolución industrial: la denominada 4º Revolución industrial.
A continuación analizaré, brevemente, las nuevas tecnologías en la que los científicos trabajan con las nuevas energías renovables.

Automóvil | Vivienda y edificios
Automatización y robótica |
Aeronáutica y Aeroespacial
Nanotecnología

A) EL AUTOMÓVIL. 
La preocupación por el medio ambiente ha propiciado un cambio que no va a ser coyuntural. En la actualidad hay tres líneas claras de investigación como alternativa a los vehículos con motor de combustión interna: el vehículo eléctrico con baterías recargables, el vehículo híbrido (motor de combustión interna y baterías) y el vehículo alimentado por hidrógeno. Los dos primeros ya ruedan y el tercero quizá sea, el que a largo plazo, tenga una presencia mayoritaria.
El vehículo eléctrico está propulsado por un motor eléctrico alimentado a través de baterías recargables de ión-litio. Tiene el inconveniente de su elevado peso y volumen de las baterías, amén del elevado tiempo de recarga, de la escasez de infraestructuras para hacerlo y de su escasa autonomía (tan sólo unos 150-200 km), aunque suficiente para más de un 70% de los automovilistas.
Estos vehículos eléctricos son una realidad, desde finales del siglo pasado, y en el mercado ya se comercializan turismos como los chinos BYD, Fiat, italianos, los noruegos Think City y City Plus, así como varios microbuses de uso urbano.

Por su parte, los vehículos híbridos disponen de un motor eléctrico alimentado por baterías y de un motor térmico que produce la energía necesaria para el movimiento cuando las baterías no tienen carga. Así, en el tráfico urbano, el vehículo funciona como un coche eléctrico convencional y en los desplazamientos interurbanos o cuando las baterías estuviesen descargadas lo haría utilizando el motor térmico, que además recargará las baterías.
A corto plazo habrá modelos híbridos que también podrán recargar las baterías enchufándolos a la red como los eléctricos y ambos tipos dispondrán de sistemas de recuperación de energía en las frenadas o en los descensos de puertos.
Los vehículos híbridos más representativos son el Toyota Prius y los Honda Insight y Civic, y en menor medida los Lexus LS 600 y el RX 450 h. A corto plazo estarán en el mercado los SEAT León y Altea Twin Drive, Mercedes S400 Blue Irbid y el Citroën con su Hypnos.
Por último, los vehículos con pila de combustible utilizan hidrógeno como combustible que al combinarlo con el oxígeno del aire produce agua y energía eléctrica para alimentar al motor eléctrico que propulsa al automóvil. El problema de este sistema es el de producir, almacenar y distribuir el hidrógeno y aunque varios fabricantes disponen de vehículos de este tipo (Honda, Opel...), sólo Mercedes dispone de un vehículo de estas características y GM es el fabricante más avanzado.

Sin estaciones de recarga es imposible vender el vehículo. Daimler promueve un proyecto para contar con mil “hidrogeneras” en Alemania, en 2015. A largo plazo puede que sea la técnica que se imponga, pues conjuga la ausencia de emisiones de CO2 con su elevada autonomía.

B) VIVIENDAS Y EDIFICIOS.
El inicio del siglo XXI, se caracteriza por un amplio desarrollo de la industrialización de la sociedad moderna sumado al ámbito de la construcción de espacios públicos, edificios y viviendas.
Debemos constatar que fuera de los logros y resultados deseados, han surgido un sinnúmero de “efectos secundarios” no deseados ni planificados los cuales amenazan con destruir la calidad de vida en el interior de las ciudades para la gran mayoría de los habitantes del planeta provenientes, principalmente, de la utilización de la energía activa la cual consume recursos fósiles no renovables.
 Los efectos secundarios son tan poderosos, que logran instalarse peligrosamente en el amplio sistema del planeta. De entre todos ellos podríamos destacar los siguientes:

  • El agujero de ozono.
  • El cambio climático.
  • Las lluvias e inundaciones. 
  • Los materiales altamente tóxicos en el medioambiente: (contaminación ambiental).
  • Degradación de los suelos: (categorías de erosión).
  • El ruido y sus consecuencias para la civilización: (la contaminación acústica es producto de la producción industrial no planificada derivada del alto standard occcidental).
  • En el caso de la contaminación ambiental provocada por la lluvia ácida producto de la suspensión de partículas tóxicas en el aire, conlleva al efecto no renovable de bosques, ríos, lagos y mares.
    Desde el punto de vista de la ciudad moderna, las leyes urbanas que la componen contienen un efecto contrario a lo planificado: es decir, caos en el interior de las ciudades en vez de un orden dentro del mismo, destruyendo el tejido urbano en vez de construirlo o reconstruirlo considerando que las ciudades son un cuerpo vivo que aspiran al desarrollo equilibrado desde la sustentabilidad del medio ambiente hasta lo social y económicamente sostenible.
    Desde ese punto de vista, aspiramos a viviendas y edificios versátiles que respondan al apropiado dominio de la luz, del aire, del sol y del agua en ciudades densificadas con espacios proporcionalmente bien determinados para sus habitantes.
    Ahora, desde la conurbanización del tejido urbano, deseamos construir ciudades democráticas con iguales posibilidades de acceso para sus habitantes, procurando que sean espacios públicos integradores, con viviendas y edificios para el uso de una población socialmente homogénea y anónima.

    Aspiramos a una movilidad máxima y a una libertad de movimiento a través de sistemas de transporte – privados y públicos no contaminantes, tanto en vías rápidas y reguladas al interior como fuera del tejido urbano de la ciudad, evitando las potenciales fuentes de contaminación acústicas y ambientales e incrementando definitivamente una mejor calidad de vida en nuestras ciudades, siempre y cuando se genere una real voluntad política de parte de nuestras autoridades comunales, quienes han sido recientemente electas en nuestro país por los propios habitantes de ellas, en virtud de una real y definitiva descentralización local lo esperamos desde lo políticamente prometido – hacia la materialización de una autonomía democrática, administrativa y económica.
    En consecuencia, si la producción arquitectónica moderna en el pasado se concentró en inventar nuevos materiales de construcción como el hormigón y el acero, hoy día como sociedad nos debemos a una reflexión ética y de principios: debemos concebir, producir y emplear nuevas tecnologías en el ámbito de la construcción en que el sostenimiento de ellas sea el resultado de una alta eficiencia en el tiempo.
    Desde el punto de vista de la formación profesional y la investigación, el rol de las Universidades e Instituciones Públicas como Privadas de países desarrollados y en vías de desarrollo es fundamental: Ellas se concentran en el mejoramiento y contextualizan la rica herencia de la construcción étnica, fusionándola con técnicas y tecnologías modernas y apropiadas con el objeto de desarrollar sistemas pasivos de captación de energías renovables provenientes de las bondades que ofrece el planeta, es decir: Energía solar (sol), eólica (vientos), geotérmica (aguas subterráneas) y maremotriz (oleaje de mareas).

    Es, en este sentido, por lo que a menudo la Arquitectura moderna bioclimática, observa  la tradición étnica como una fuente de inspiración en la búsqueda de nuevas soluciones a los ya conocidos problemas del clima, luminosidad, salud física, confort térmico y acústico, y ventilación de los espacios a habitar.
    La acción de como el Sol calienta el planeta es el concepto elemental que se utiliza para diseñar su habitabilidad.Cuando el sol calienta la superficie del globo, la atmósfera retiene el calor a una cierta altura de la superficie de la tierra y de las aguas.  Los vientos y las corrientes marinas estimuladas por la energía del sol activan el calor haciéndolo circular alrededor del planeta.

    Antes de concebir e instalar las tecnologías apropiadas para el uso de energía solar en viviendas y edificios, debemos incorporar 2 conceptos fundamentales: El 1º. Desde la Arquitectura y el 2º Desde la Técnica.
    El primero considera la óptima orientación de las viviendas y edificios en relación al recorrido del sol durante las diferentes horas del día, en las diferentes estaciones del año y latitudes del planeta.
    El segundo considera una apropiada envolvente térmica desde el suelo, fundaciones y muros, hasta la cubierta de viviendas y edificios considerando el contexto climático del lugar.

    El sistema solar pasivo que otorga energía renovable para el consumo de agua sanitaria, luz artificial y calefacción, consiste en la transmisión calórica al interior de las viviendas y edificios a través de captadores solares para los 2 primeros casos – placas solares y fotovoltaicas respectivamente -, y de forma directa a través de ventanas e invernaderos vidriados para el caso de la confortabilidad térmica habitable, concebidos de tal forma, que la energía solar almacenada durante el día sea desprendida parcialmente durante la noche o durante los días nublados de manera de ventilar los espacios habitables y así proteger la salud física de los usuarios.
    Desde la autocrítica, hoy día es necesario reconocer la inmovilidad de la gran mayoría de la sociedad, más allá de le retórica, en lo que concierne el respeto por el medio ambiente, donde nuestros aportes deberían comenzar en el diseño de nuevos tratados normativos y conductas técnicas contextualizadas con los tiempos actuales, así como en la anticipación – en paralelo con lo anterior – a lo que sucederá en el futuro inmediato en consideración del espacio-tiempo que nos expondrá el desarrollo evolutivo de nuestras ciudades, lo cual nos debería conducir a la innovación productiva y al empleo de nuevos materiales de construcción no contaminantes, como en la integración de las bondades que nos otorga el planeta en la concepción de nuestras viviendas y edificios utilizando la luz, el aire, el sol y el agua como fuentes de energías renovables, siendo esto uno de los grandes desafíos bioclimáticos en la arquitectura de nuestros tiempos.

    Por último conviene destacar que un equipo de recién graduados del reconocido Massachusetts Institute of Technology (MIT) ha desarrollado unas tejas capaces de cambiar del color blanco al negro (y viceversa) según la temperatura, aprovechando así estas conocidísimas propiedades del color para crear mejores viviendas desde el punto de vista del consumo energético.
    La idea no es nueva. Incluso el propio Secretario de Energía de EEUU, Steven Chu, es un gran defensor del uso de los tejados blancos, y ha llegado a decir que si todos los tejados del mundo se volvieran blancos se eliminarían en 20 años tantas emisiones causantes del efecto invernadero como las que emite el mundo entero en un año. Las tejas propuestas por los estudiantes del MIT añaden otra ventaja a las blancas de Chu: como se oscurecen con las bajas temperaturas, ayudan a ahorrar energía también durante el invierno. Son capaces de reflejar el 80% de la luz del sol cuando son blancas y el 30% cuando son negras. Eso significa un 20% de ahorro en el aire acondicionado y un porcentaje de la calefacción invernal que aún se está determinando.

    La idea del grupo de estudiantes es aún más ingeniosa si se tiene en cuenta que utilizaron para sus fines un material muy común: un polímero que se utiliza en los fijadores de pelo. Mientras la temperatura se mantiene baja, el polímero se mantiene disuelto y permite ver la parte trasera de la teja que es negra y que se dedica a absorber el calor. Pero cuando la temperatura aumenta, el polímero se condensa formando diminutas gotitas que dispersan la luz y producen una superficie blanca que refleja la luz del sol.
    De momento, el proyecto ha ganado el concurso Materials Engineering Contest (MADMEC) organizado por el MIT (diciembre de 2009). Y aunque los materiales son baratos, su gran reto ahora es otro: la perdurabilidad de un elemento que permanece siempre expuesto a la intemperie.

    C) AUTOMATIZACIÓN Y ROBÓTICA.
    La historia de la automatización industrial está caracterizada por períodos de constantes innovaciones tecnológicas. Esto se debe a que las técnicas de automatización están muy ligadas a los sucesos económicos mundiales. 
    El uso de robots industriales junto con los sistemas de diseño asistidos por computadora (CAD), y los sistemas de fabricación asistidos por computadora (CAM), son la última tendencia en automatización de los procesos de fabricación y luego se cargaban en el robot. Éstas tecnologías conducen a la automatización industrial a otra transición, de alcances aún desconocidos. 
    Aunque el crecimiento del mercado de la industria robótica ha sido lento en comparación con los primeros años de la década de los años ochenta del siglo pasado, de acuerdo a algunas predicciones, la industria de la robótica está en su infancia. Ya sea que éstas predicciones se realicen completamente, o no, es claro que la industria robótica, en una forma o en otra, permanecerá. 
    En la actualidad el uso de los robots industriales está concentrado en operaciones muy simples, como tareas repetitivas que no requieren tanta precisión. Los análisis de mercado en cuanto a fabricación predicen que en ésta década y en las posteriores los robots industriales incrementarán su campo de aplicación, esto debido a los avances tecnológicos en sensórica, los cuales permitirán tareas más sofisticadas como el ensamble de materiales. 

    Como se ha observado la automatización y la robótica son dos tecnologías estrechamente relacionadas. En un contexto industrial se puede definir la automatización como una tecnología que está relacionada con el empleo de sistemas mecánicos-eléctricos basados en computadoras para la operación y control de la producción. En consecuencia la robótica es una forma de automatización industrial. 
    Hay tres clases muy amplias de automatización industrial: automatización fija,automatización programable, y automatización flexible. 

    La automatización fija se utiliza cuando el volumen de producción es muy alto, y por tanto se puede justificar económicamente el alto costo del diseño de equipo especializado para procesar el producto, con un rendimiento alto y tasas de producción elevadas. Además de esto, otro inconveniente de la automatización fija es su ciclo de vida que va de acuerdo a la vigencia del producto en el mercado. 
    La automatización programable se emplea cuando el volumen de producción es relativamente bajo y hay una diversidad de producción a obtener. En este caso el equipo de producción es diseñado para adaptarse a la variaciones de configuración del producto; ésta adaptación se realiza por medio de un programa (Software). 

    La automatización flexible, por su parte, es más adecuada para un rango de producción medio. Estos sistemas flexibles poseen características de la automatización fija y de la automatización programada. Los sistemas flexibles suelen estar constituidos por una serie de estaciones de trabajo interconectadas entre sí por sistemas de almacenamiento y manipulación de materiales, controlados en su conjunto por una computadora. 
    De los tres tipos de automatización, la robótica coincide más estrechamente con la automatización programable. 

    En tiempos más recientes, el control numérico y la telequerica son dos tecnologías importantes en el desarrollo de la robótica. El control numérico (NC) se desarrolló para máquinas herramienta a finales de los años 40 y principios de los 50. Como su nombre  indica, el control numérico implica el control de acciones de un máquina-herramienta por medio de números. Está basado en el trabajo original de Jhon Parsons, que concibió el empleo de tarjetas perforadas, que contienen datos de posiciones, para controlar los ejes de una máquina-herramienta. 

    El campo de la telequerica abarca la utilización de un manipulador remoto controlado por un ser humano. A veces denominado teleoperador, el operador remoto es un dispositivo mecánico que traduce los movimientos del operador humano en movimientos correspondientes en una posición remota. A Goertz se le acredita el desarrollo de la telequerica. En 1948 construyó un mecanismo manipulador bilateral maestro-esclavo en el Argonne National Laboratory. El empleo más frecuente de los teleoperadores se encuentra en la manipulación de sustancias radiactivas, o peligrosas para el ser humano.  La combinación del control numérico y la telequerica es la base que constituye al robot modelo. Hay dos individuos que merecen el reconocimiento de la confluencia de éstas dos tecnologías y el personal que podía ofrecer en las aplicaciones industriales. El primero fue un inventor británico llamado Cyril Walter Kenward, que solicitó una patente británica para un dispositivo robótico en marzo de 1954. 

    La segunda persona citada es George C. Devol, inventor americano, al que debe atribuirse dos invenciones que llevaron al desarrollo de los robots hasta nuestros días. La primera invención consistía en un dispositivo para grabar magnéticamente señales eléctricas y reproducirlas para controlar una máquina. La segunda invención se denominaba Transferencia de Artículos Programada. 

    Un robot industrial es un máquina programable de uso general que tiene algunas características antropomórficas o ¨humanoides¨. Las características humanoides más típicas de los robots actuales es la de sus brazos móviles, los que se desplazarán por medio de secuencias de movimientos que son programados para la ejecución de tareas de utilidad. 
    La definición oficial de un robot industrial se proporciona por la Robotics Industries Association (RIA), anteriormente el Robotics Institute of América. 

    "Un robot industrial es un manipulador multifuncional reprogramable diseñado para desplazar materiales, piezas, herramientas o dispositivos especiales, mediante movimientos variables programados para la ejecución de una diversidad de tareas". 
    Se espera en un futuro no muy lejano que la tecnología en robótica se desplace en una dirección que sea capaz de proporcionar a éstas máquinas un gran número de actividades industriales y sociales. 

    D) LA CARRERA  AERONÁUTICA Y AEROESPACIAL.
    El artista e inventor italiano,  Leonardo Da Vinci diseñó, por primera vez, un tipo de avión (o aeroplano) en el siglo XV, pero nunca llegó a levantar el vuelo.
    Varios siglos más tarde, los hermanos Wright fueron principalmente los creadores del avión autopropulsado de la historia. En 1903 desarrollaron el avión cerca de Kitty Hawk, cuyo vuelo duró aproximadamente un minuto y recorrió más o menos 26 metros, estando presentes, en este acontecimiento histórico  5 personas.
    Durante la Primera Guerra Mundial, los aviones fueron diseñados para la exploración, pero, cuando los exploradores se encontraban y eran enemigos luchaban con pistolas y ladrillos. Tras esto, pensaron en poner metralletas y el alemán Anthony Fokker diseñó un sistema para que no dañara las hélices y otros mecanismos. Aviones importantes fueron: Sopwith Camel, Albatros DVa y los Fokker alemanes y sus variantes.
    Durante el periodo denominado de entreguerras las potencias seguían mejorando sus aviones hasta crear aviones de dos alas, cada uno a un lado del aparato. Los primeros aviones que se crearon de este tipo fueron: FW-190, Aichi D3A  “llamados como los americanos VAL”.

    En la Segunda Guerra Mundial los aviones van adquiriendo cierta relevancia. Hasta ese momento no eran lo que se puede decir importantes,para el transcurso de una guerra, pero ahora, conseguir la supremacía aérea fundamental. Los aviones de ataque o cazas para abreviar, eran aviones que podían atacar objetivos aéreos con facilidad y destruirlos. Eran ligeros y rápidos, con metralletas incrustadas en las alas.
    Los bombarderos eran usados para destruir objetivos terrestres, tanto blindados como edificios o soldados. No tenían metralletas para atacar a enemigos aéreos. Eso sí, tenían metralletas que dirigían los soldados en diferentes partes del avión para defenderse. Eran lentos y resistentes.

    A partir de principios de la década de los 50 del siglo pasado se inició la denominada Guerra Fría. Los americanos ayudaban, pero sin luchar ellos, a Corea del Sur y la URSS a Corea del Norte. Durante esta guerra se usaron los helicópteros para las misiones de reconocimiento, de ataque, de bombardero, de transporte, pero los cazas,mejorados y creados a propulsión para destruir objetivos más duros y para combates aéreos muchísimo más intensos.
    Los cazas de ahora son a propulsión, con misiles dirigidos y son poderosísimos, llegando a superar la barrera del sonido. Además existen los denominados “aviones invisibles” pues no son detectados por los radares.
    El avión invisible es el producto de la combinación de varios factores antidetección y el aprovechamiento de una debilidad de los misiles AA/IR (antiaéreos infrarrojos).

    Estos misiles en su nariz tienen un sensor IR (infrarrojo) de ángulo estrecho (como la luz de una linterna) en cuya área o cono de captación se  puede «ver» el objetivo. Si un avión se ubica perpendicular al eje del misil (a un lado) el misil no lo ve y sigue de largo. Por eso los misiles AA deben ser disparados hacia el punto donde el radar ubicado en tierra ve el objetivo. En caso de que el radar no logre ver el avión, no hay manera de disparar hacia el punto donde está el avión. Lo mismo pasa con los misiles AA del tipo FF, es decir misiles que en su morro llevan no un sensor infrarrojo sino un minirradar, e incluso con los combinados IR-FF.
    En cuanto a los factores antidetección, para evitar la detección infrarroja o detección térmica, primeramente las turbinas se recubren externamente de amianto y otros aislantes térmicos, formando una gruesa capa entre el fuselaje de plástico del avión y la superficie metálica del cuerpo de la turbina. El fuselaje externo por ser de plástico contribuye al aislamiento. La cola del avión después de la salida o tobera de la turbina se hace un poco más larga para disipar aún más el chorro térmico. Esta cola se hace de doble capa con amianto en medio de las dos capas formadas por el fuselaje externo y la capa o cubierta interna. Para reforzar la merma de calor, la turbina se fabrica lo más pequeña posible y para operar a las mínimas revoluciones posibles (RPM), de ahí la baja velocidad de los F117.
    Adicionalmente desde la boca delantera de entrada de aire frío, se hace una toma por 4 ó 6 conductos de poco diámetro que van a la prolongación de la cola, antes mencionada, para enfriar con aire frío el extremo final la cola del chorro de la turbina.

    Pero, a pesar de todo esto, al avión siempre conserva un «Punto caliente» al ser visto desde atrás o por atrás. Si desde atrás se le dispara un AA-FF como éste trabaja respondiendo a un eco de radar, el misil no ve el avión. Pero si desde atrás se le dispara un AA-IR sí lo ve y da en el blanco, y esto fue la que pasó en Kosovo con el F-117 derribado.
    En cuanto al método antidetección de radar, es una combinación de varios factores, en primer lugar, se usa un material de fibra plástica similar a la fibra de cristal con la adicción de un derivado del amianto, que tiene una baja reflexión de radar como cualquier lancha con casco de fibra de vidrio. A esto se suma una pintura que tiene una baja reflexión a las ondas del radar. Y finalmente se agrega el diseño de superficie diédrica, para aprovechar un principio físico que dice que el ángulo de reflexión es igual al ángulo de incidencia, con respecto al plano donde se hace el rebote.

    Sin embargo, los modernos micrófonos de alta sensibilidad, amplificadores de audio de sensibilidad extrema y altos factores de amplificación lineal, así como los filtros de audio pasabanda (que discriminan la frecuencia sónica a una estrecha banda sonora equivalente al sonido del avión), permiten la detección con gran exactitud a larga distancia. Los micrófonos, con su reflector parabólico, son montados en «baterías» de hasta 100 grupos como una especie de antena Yagi direccional. Además, el sonido del avión en el aire no se puede disfrazar e investigadores chinos han conseguido diseñar y construir un radar de baja frecuencia que rebota en superficies de baja reflexión a las altas frecuencias. 

    En el campo de la aviación civil las innovaciones que se vienen realizando en las últimas décadas son, igualmente, impresionantes.
    En diciembre de 2009 Air Berlin estrenó el sistema GLS para asistir a los pilotos en el aterrizaje de aeronaves, y mientras eso sucede en Europa, en EEUU también avanzan en ese sentido.
    La Federal Aviation Administration de ese país ha aprobado la puesta en marcha del sistema Automatic Dependent Surveillance-Broadcast, o ADS-B, que ofrece una visualización mucho más detallada del espacio aéreo, tanto desde las torres de control como desde las propias aeronaves.
    Con ADS-B será posible un nivel de seguridad mucho mayor gracias a que los pilotos tendrán una referencia mucho más realista y detallada de las rutas, como así también de las dificultades que estas presentan, gracias a la utilización de vistas de terreno y acceso.
    Air Berlin será la primera aerolínea en incorporar el Global Position Landing System (GLS), una tecnología de navegación satelital  de asistencia en vuelo.
    Con ella será posible realizar vuelos de aproximación mucho más precisos y aterrizajes más exactos, lo cual permitirá reducir costos y aumentar significativamente la seguridad.

    La Oficina Federal Alemana de Aviación (LBA) ya ha otorgado la autorización a Air Berlin para comenzar a utilizar el sistema GLS, lo cual convierte a la compañía en la precursora de esta tecnología.
    La carrera espacial y la Guerra Fría, provocó los incentivos necesarios tanto para los Estados Unidos como para la URSS, creando y potenciando sus industrias aeroespaciales, y en la década de 1980, condujeron al mundo, en general, a importantes  logros. El mercado aeroespacial mundial creció de forma sostenida en los años 1980, a pesar de que las ventas se desaceleraron en los EE.UU. a causa del accidente del transbordador espacial que destruyó el Challenger en 1986 y el fracaso del Delta del Titán. De hecho, los EE.UU. decidieron, en 1991, poner fin a su dependencia de los lanzamientos del transbordador. China y Japón amplían, entonces, sus programas espaciales para poder  acceder a los mercados abiertos por la caída del programa de transbordadores de EE.UU. y el incierto futuro del programa espacial soviético como  resultado de sus problemas políticos.

    En los EE.UU. los principales productores de aviones, motores de aviones, misiles y vehículos espaciales superan la docena.  Como los vehículos son cada vez más complejos, las empresas suelen trabajar en colaboración sobre los productos principales.  También dependen de los proveedores especializados para muchos artículos. Decenas de miles de pequeñas empresas  fabrican  piezas para los productores primarios.
    Los principales fabricantes de fuselajes de aviones, misiles y vehículos espaciales incluyen Boeing, Fairchild República, General Dynamics, Grumman, Hughes, Ling-Temco-Vought, Lockhead, Martin Marietta, McDonnell Douglas, de América del Norte de las aeronaves, y Northrop.  Entre los productores de aviones privados son la haya, Cessna y Piper.  Los fabricantes de motores incluyen Avco Lycoming, General Electric y Pratt and Whitney.  Incluyen fabricantes de helicópteros Bell, Boeing, Hiller, Hughes, Kaman, y Sikorsky.

    El gobierno federal norteamericano es el principal cliente de los misiles,vehículos espaciales, aeronaves y sus componentes.Las compras gubernamentales anuales de estos vehículos suman en total unos 23 millones de dólares, alrededor del 54 por ciento de los productos aeroespaciales de los EE.UU. y servicios vendidos.
    Con el desvanecimiento de las hostilidades de la Guerra Fría, las partes de la industria dedicada a la aeronáutica militar comenzó a disminuir lentamente en la década de 1980, pero los analistas de la industria aseguran  que la pérdida fue compensada por un saludable crecimiento en el mercado de aviones civiles, impulsado por el aumento de una proyección  en el tráfico aéreo, por la necesidad de reemplazar los aviones ya envejecidos, por un aumento previsto del tráfico aéreo, y por las nuevas regulaciones que exigen modificaciones en las aeronaves existentes para alcanzar niveles de menor ruido.

    El programa espacial soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.
    El 29 de julio de 1958 Eisenhower firmó el Acta de fundación de la NASA, la cual empezó a funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000 empleados.
    La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada carrera espacial que se produjo durante la Guerra Fría.

    El Programa Mercury comenzó en 1958 con el objetivo de descubrir si el hombre podía sobrevivir en el espacio exterior. El 5 de mayo de 1961 Alan B. Shephard fue el primer astronauta estadounidense al pilotar la nave Freedom 7 en un vuelo suborbital de 15 minutos. John Glenn se convirtió el 20 de febrero de 1962 en el primer estadounidense en orbitar la Tierra, durante un vuelo de 5 horas con la nave Friendship 7, que dio tres vueltas a la Tierra.
    El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a “aterrizar a un hombre en la Luna y devolverlo sano y salvo a la Tierra antes del final de la década”, para lo cual se creó el Programa Apolo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apolo, cuyas misiones eran mucho más complejas.
    Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. La NASA, tras este accidente, lanzó un programa de premios para mejorar la seguridad de las misiones, el Premio Snoopy. El Programa Apolo logró su meta con el Apolo 11, que alunizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la luna fueron: «Este es un pequeño paso para un hombre, pero un gran salto para la humanidad».

    Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17 en diciembre de 1972, cuyo resultado fue, además de la recogida de muestras de regolito, la instalación de equipos de estudio superficiales ALSEP.

    La NASA había ganado la carrera espacial y, en cierto sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, ha habido muchas misiones no tripuladas promovidas por la agencia espacial.
    El desarrollo ya logrado por las dos potencias espaciales tenía que producir un acercamiento entre la Unión Soviética y los Estados Unidos. Por lo tanto, el 17 de julio de 1975, un Apolo, se acopló a un Soyuz soviético en la misión Apolo-Soyuz para la que hubo que diseñar un módulo intermedio y acercar la tecnología de las dos naciones. Aunque la Guerra Fría duraría más años, este fue un punto crítico en la historia de NASA y el principio de la colaboración internacional en la exploración espacial. Después vinieron los vuelos del transbordador a la estación rusa Mir, vuelos de estadounidense en la Soyuz y de rusos en el transbordador y la colaboración de ambas naciones y otras más en la construcción de la Estación Espacial Internacional (ISS).

    El Transbordador espacial se convirtió en el programa espacial favorito de la NASA a finales de los años setenta y los años ochenta. Planeados tanto los dos cohetes lanzadores como el transbordador como reutilizables, se construyeron cuatro transbordadores. El primero en ser lanzado fue el Columbia el 12 de abril de 1981.
    Pero los vuelos del transbordador eran mucho más costosos de lo que inicialmente estaba proyectado y, después de que el desastre del Challenger, en 1986, resaltó los riesgos de los vuelos espaciales, el público recuperó el interés perdido en las misiones espaciales.
    No obstante, el transbordador se ha usado para poner en órbita proyectos de mucha importancia como el Telescopio Espacial Hubble (HST). El HST se creó con un presupuesto relativamente pequeño de 2.000 millones de dólares, pero ha continuado funcionando desde 1990 y ha maravillado a los científicos y al público. Algunas de las imágenes han sido legendarias, como las del denominado Campo Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y la NASA, y su éxito ha ayudado en la mayor colaboración entre las agencias.

    En 1995 la cooperación ruso-estadounidense se lograría de nuevo cuando comenzaron las misiones de acoplamiento entre el transbordador y la estación espacial Mir, en ese momento la única estación espacial completa. Esta cooperación continúa al día de hoy entre Rusia y Estados Unidos, los dos socios más importantes en la construcción de la Estación Espacial Internacional. La fuerza de su cooperación en este proyecto fue más evidente cuando la NASA empezó confiando en los vehículos de lanzamiento rusos para mantener la ISS tras el desastre en 2003 del Columbia que mantuvo en tierra la flota de los transbordadores durante más de un año.
    Costando más de cien mil millones de dólares, ha sido a veces difícil para la NASA justificar el proyecto ISS. La población estadounidense ha sido históricamente difícil de impresionar con los detalles de experimentos científicos en el espacio. Además, no puede acomodar a tantos científicos como había sido planeado, sobre todo, desde que el transbordador espacial estuvo fuera de uso hasta marzo de 2005, deteniendo la construcción de la ISS y limitando su tripulación a una de mantenimiento de dos personas.
    Durante la mayor parte de los años 1990 la NASA se enfrentó con una reducción de los presupuestos anuales por parte del Congreso. Para responder a este reto, el noveno administrador de la NASA, Daniel S. Goldin, inventó misiones baratas bajo el lema:  “más rápido, más bueno, más barato” que le permitió a la NASA recortar los costes mientras se emprendía una gran variedad de programas aerospaciales. Ese método fue criticado y llevó en 1999 a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar Lander de exploración en Marte.

    Probablemente la misión con más éxito entre el público en los últimos años (1997) ha sido la de la sonda Mars Pathfinder y la Mars Global Surveyor. Los periódicos de todo el mundo llevaron las imágenes del robot Sojourner, desplazándose y explorando la superficie de Marte. Desde 1997 la Mars Global Surveyor estuvo orbitando Marte con gran éxito científico. Desde 2001 el orbitador Mars Odyssey ha estado buscando evidencia de agua en el Planeta rojo, en el pasado o en el presente, así como pruebas de actividad volcánica.
    En 2004 una misión científicamente más ambiciosa llevó a dos robots, Spirit y Opportunity, a analizar las rocas en busca de agua, por lo que aterrizaron en dos zonas de Marte diametralmente opuestas, encontrando vestigios de un antiguo mar o lago salado.
    El 14 de enero de 2004, diez días después del aterrizaje de Spirit , el Presidente George W. Bush anunció el futuro de la exploración espacial. La humanidad volvería a la Luna en 2020 como paso previo a un viaje tripulado a Marte.

    El robot Spirit siempre fue el menos afortunado de los dos aparatos gemelos que la NASA envió a explorar la superficie de Marte. Apenas semanas después de llegar a un cráter marciano en 2004, comenzó a transmitir mensajes incoherentes a la Tierra. Los ingenieros temen que el  Spirit se quede sin electricidad a menos que los científicos puedan reorientar sus celdas fotovoltaicas hacia el Sol. 
    El Spirit "siempre ha sido nuestra reina del drama'', dijo el científico en jefe Steve Squyres de la Universidad Cornell. 
     En abril, de 2009, cuando el Spirit circulaba hacia atrás por una falla en una rueda, cayó a través del suelo endurecido como una persona que atraviesa el hielo de un lago congelado y quedó encallado en arena suelta. Desde entonces, los intentos para liberarlo de allí no han avanzado mucho. 
    En cambio, su gemelo Opportunity le robó protagonismo, ya que llegó a un sitio geológicamente ideal y fue el primero en establecer que el Planeta rojo, hoy helado y polvoriento, tuvo un pasado con más humedad. 

    E) LA NANOTECNOLOGÍA.
    La palabra “nanotecnología” es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas “nanos” que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman (Breve cronología historia de la nanotecnología).
    La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. 

    Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
    Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina  etc.. 

    Estas nuevas estructuras con precisión atómica, tales como nanotubos de carbón, o pequeños instrumentos para el interior del cuerpo humano pueden introducirnos en una nueva era, tal como señala Charles Vest (ex-presidente del MIT). Los avances nanotecnológicos protagonizarían de esta forma la sociedad del conocimiento con multitud de desarrollos con una gran repercusión en su instrumentación empresarial y social.
    La nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la “nanotecnología molecular”, esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation" introdujo las promesas y peligros de la manipulación molecular. 

    El padre de la “nanociencia”, es considerado Richard Feynman, premio Nóbel de Física, quién en 1959 propuso fabricar productos en base a un reordenamiento de átomos y moléculas. En 1959, el gran físico escribió un artículo que analizaba cómo los ordenadores trabajando con átomos individuales podrían consumir poquísima energía y conseguir velocidades asombrosas.
    Existe un gran consenso en que la nanotecnología nos llevará a una nueva revolución industrial en el siglo XXI tal como anunció hace unos años, Charles Vest (ex-presidente del MIT). 
    Supondrá numerosos avances para muchas industrias y nuevos materiales con propiedades extraordinarias (desarrollar materiales más fuertes que el acero pero con solamente el diez por ciento de peso), nuevas aplicaciones informáticas con componentes increíblemente más rápidos o sensores moleculares capaces de detectar y destruir células cancerígenas en las partes más delicadas del cuerpo humano como el cerebro, entre otras muchas aplicaciones. 
    Podemos decir que muchos progresos de la nanociencia estarán entre los grandes avances tecnológicos que cambiarán el mundo.
    El 4 de enero de 2010, un equipo médico, de un hospital londinense, creó una arteria con el empleo de nanotecnología que podría ayudar a pacientes que necesitan un injerto de arterias coronarias y de miembros inferiores, divulgaron los científicos londinenses.
    Investigadores del Royal Free Hospital, Reino Unido, pondrán a prueba el material que imita el pulso natural de los vasos sanguíneos y puede transmitir los nutrientes necesarios a los tejidos del organismo, lo cual serviría de ayuda a miles de pacientes afectados por enfermedades cardiovasculares.
    En la actualidad, las personas con esas dolencias son sometidas a un pypass, o el vaso sanguíneo dañado es reemplazado por un injerto hecho a partir de plástico, o una vena de la pierna del enfermo.
     Amador Menéndez Velázquez (Oviedo, 1969) sabe de lo que habla cuando pronostica que la nanotecnología puede revolucionar el futuro. De eso habla y así se titula el estudio que le valió el Premio Europeo de Divulgación Científica en 2009, «Una revolución en miniatura. Nanotecnología y disciplinas convergentes». Doctor en Química e investigador del Centro de Investigación de Nanomateriales y Nanotecnología (CINN), se ha incorporado al Instituto Tecnológico de Massachusetts (MIT), uno de los más prestigiosos del mundo.

    El instituto tecnológico de Massachusetts, una de las instituciones más prestigiosas del mundo nos presenta a continuación Las diez tecnologías avanzadas que cambiarán el mundo (enero de 2010).
    -Redes de sensores sin cables (Wireless Sensor Networks): Son redes de nano aparatos autónomos capaces de una comunicación sin cable y suponen uno de los avances tecnológicos más investigados en la actualidad.
    -Ingeniería inyectable de tejidos (Injectable Tissue Engineering): Consiste en sustituir a los tradicionales trasplantes de órganos, se está a punto de aplicar un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos.
    -Nano-células solares (Nano Solar Cells): A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costos de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.
    -Mecatrónica (Mechatronics): Surge de la combinación sinérgica de distintas ramas de la ingeniería, entre las que destacan: la mecánica de precisión, la electrónica, la informática y los sistemas de control.Su principal propósito es el análisis y diseño de productos y de procesos de manufactura automatizados.
    -Sistemas informáticos Grid (Grid Computing): La Computación Grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (cómputo, almacenamiento) que no están sujetos a un control centralizado.
    -Imágenes moleculares (Molecular Imaging): A diferencia de rayos x, ultrasonido y otras técnicas más convencionales, que aportan a los médicos pistas anatómicas sobre el tamaño de un tumor, las imágenes moleculares podrán ayudar a descubrir las verdaderas causas de la enfermedad. La apariencia de una proteína poco usual en un conjunto de células podrá advertir de la aparición de un cáncer.
    -Litografía Nano-impresión (Nanoimprint Lithography): Simplemente a través de la impresión de una moldura dura dentro de una materia blanda, puede imprimir caracteres más pequeños que 10 nanometros.
    -Software fiable (Software Assurance): Los ordenadores se averían, y cuando lo hacen, suele ser por un virus informático. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores.
    -Glucomicas (Glycomics): Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes.
    -Criptografía Quantum (Quantum Cryptography): La herramienta quantum cryptography, depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado.( Informe, MIT, tecnologías del futuro).


    Temas relacionados 
    Energías alternativas en Waste

    Copyright © Waste magazine







    ENERGIAS RENOVABLES
    Biomasa | Eólica | Solar | Hidroeléctrica


    VÍDEOS DE NATURALEZA


    --

    Copyright: Waste Magazine ©
    TODOS LOS DERECHOS RESERVADOS:
    Queda prohibida la reproducción, distribución, puesta a disposición, comunicación pública y utilización total o parcial, de los contenidos de esta web, en cualquier forma o modalidad, sin previa, expresa y escrita autorización, incluyendo, en particular, su mera reproducción y/o puesta a disposición como resúmenes, reseñas o revistas de prensa, blogs, páginas personales,  con fines comerciales o directa o indirectamente lucrativos, y las no comerciales y sin ánimo de lucro, a la que se manifiesta oposición expresa. 
    --
    Política de privacidad / Aviso legal

    Contenidos informativos
    Guía de Aves
    Guía de plantas * Flora
    Guía de Mariposas
    Guía de insectos
    Especies marinas
    Moluscos
    Setas y hongos
    Líquenes
    Anfibios
    Reptiles
    Fauna
    Rutas y paisajes
    Waste créditos

    Especiales
    Espacios naturales
    Sierra Nevada
    Doñana
    Alhambra
    Al-andalus
    Cosmología y Astronomía
    Evolución humana
    Reciclado
    Contaminación
    Ecología
    Guías y libros


    Revista electrónica creada en 1997

    Contacto y publicidad waste@diarioideal.es

    Dirección y edición
    waste@diarioideal.es
    Juan Enrique Gómez / Merche S. Calle
    Diario IDEAL / 680 92 55 14
    Waste Magazine
    Forma parte de los canales temáticos del diario IDEAL - Grupo Vocento
    www.ideal.es