Recopilación de curiosidades, historias y noticias que encuentro interesantes. Y eso que llevo chaleco, viteh...
Llevo chaleco, viteh.
Mostrando entradas con la etiqueta tecnologia. Mostrar todas las entradas
Mostrando entradas con la etiqueta tecnologia. Mostrar todas las entradas

viernes, 1 de mayo de 2009

El hombre que salvó el Mundo

Eran las 12.14 de la madrugada del día 26 de setiembre de 1983, cuando la alarma se disparó en el bunker Serpukhov-15, la pantalla en frente del oficial de guardia, Stanislav Petrov, se tiñó de rojo, el ordenador mostraba que los americanos acababan de lanzar un misil nuclear contra la URSS, en menos de 20 minutos el misil haría impacto. La peor pesadilla se había hecho realidad, la estupefacción se apoderó de Petrov y sus subordinados.

Stanislav Petrov, foto del Washington Post, 2002

Petrov, teniente coronel de las fuerzas aéreas soviéticas, era responsable de la supervisión de la red soviética de satélites de alarma temprana sobre Estados Unidos. Petrov ocupaba una posición intermedia en la cadena de mando y supervisaba el personal que monitorizaba los datos que enviaban los satélites. De detectar una amenaza inminente, la obligación de Petrov era informar a los superiores en el cuartel general del sistema de alerta que llegado el momento informarían al personal encargado de consultar con el líder soviético, Yuri Andropov, sobre la posibilidad de iniciar una operación de contraataque.

La noche del incidente los ordenadores del bunker informaron del lanzamiento desde Estados Unidos de un misil balístico intercontinental con dirección a la Unión Soviética. Petrov tenía que pensar rápido y decidir si se trataba de una alarma real. Petrov recuerda que fueron cinco minutos de gran stress, en los que era consciente que se la estaba jugando. Mientras sostenía en teléfono con una mano, con la otra sujetaba un interfono intentando recabar toda la información necesaria, al mismo tiempo que los mapas electrónicos y las consolas no paraban de hacer destellos y el sonido de las ensordecedoras sirenas no cesaba.

Pese a toda esta presión y la responsabilidad de ser la persona que desencadenara la Tercera Guerra Mundial, Petrov fue capaz de mantener la cabeza fría y llegó a la conclusión que todo era sólo una falsa alarma. Petrov creyó que era improbable que los americanos iniciaran un ataque nuclear con un solo misil, puesto que siempre le habían dicho que de hacerlo lo harían a gran escala, es decir, con el lanzamiento de cientos de misiles de manera simultánea, con el objetivo de imposibilitar que la Unión Soviética contraatacara. Además, la fiabilidad del sistema de satélites ya había sido cuestionada en el pasado.

Sin embargo, al poco rato los ordenadores identificaron el lanzamiento de un segundo misil. Después un tercero, y después un cuarto y un quinto. En total cinco misiles americanos en el cielo, todos ellos dirigidos a la Unión Soviética. La situación se había complicado, quizás sí que fuera un ataque en serio. Petrov, aún sin saber si a estos cinco misiles los seguirían más, tenía que volver a evaluar la situación, y pese a no contar con ninguna otra fuente de información que confirmara sus sospechas, siguió desconfiando del sistema. El sistema soviético de radares terrestres, que hubiera podido confirmar el ataque, era incapaz de detectar los misiles más allá del horizonte. Aunque esperar a que estos radares los detectaran, de ser real la amenaza, hubiera limitado la capacidad de respuesta soviética a sólo unos minutos.

Fue una larga y desconcertante espera, 15 minutos, hasta que el sistema de radar confirmó su suposición, no estaban lloviendo misiles sobre la Unión Soviética, quedaba claro que el sistema informático había estado enviando falsos positivos. Los que estaban con él en el bunker le felicitaron y respiraron aliviados.

La gente no empieza una guerra nuclear con sólo cinco misiles”, con esta frase Petrov dejaba claro cuál fue la suposición (aunque fue eso sólo, una suposición) que le sirvió para tomar las decisiones de aquel día. También influyó que el sistema de detección de lanzamientos era todavía muy nuevo y se había puesto en servicio con demasiadas prisas. Según Petrov, que llevaba en el centro de alarma temprana desde su creación y lo conocía bastante bien, no era aún fiable del todo.

En todo el incidente hay una cierta confusión sobre si Petrov llegó a informar a sus superiores de la falsa alarma. Según unos sí que lo hizo, pero según otros no fue así y esto fue motivo de represalias a posteriori.

Tras el incidente, Petrov fue felicitado por su decisión. El comandante de la Unidad de Misiles de Defensa de las fuerzas aéreas soviéticas, Yuri Votintsev, reconoció que Petrov llevó a cabo las “acciones correctas” y que estas estaban “correctamente anotadas”. El mismo Petrov afirma que Votintsev le prometió una recompensa, aunque más tarde fue objeto de una reprimenda con el pretexto de no haber descrito del incidente adecuadamente en su diario militar. Finalmente, Petrov no fue castigado pero tampoco recompensado, según él mismo, porque los errores del sistema avergonzaron a sus superiores y a los científicos responsables. Según Petrov, si le hubieran recompensado a él, los demás tendrían que haber sido castigados.

El sistema soviético de detección de lanzamiento de misiles funcionaba de una manera diferente al americano. En vez de controlar toda la superficie terrestre, los satélites soviéticos “miraban” al borde de la tierra, reduciendo así el número de fenómenos naturales que podían ser confundidos con el lanzamiento de un misil. La silueta de los misiles, una vez estos se hubieran elevado unos kilómetros, aparecerían de manera clara contra el negro del espacio.

Para detectar la silueta de un misil, el satélite tenía que estar en una posición concreta. Para obtener esa vista, los soviéticos escogieron una órbita de un tipo especial que era usada por sus satélites de comunicaciones. Esas órbitas, conocidas como órbitas de Molniya , se aproximan mucho a la Tierra en el hemisferio sur, pero se alejan hasta casi hasta un décimo de la distancia entre la Luna y la Tierra, cuando pasan por el hemisferio norte. En esa posición, los satélites Oko (“ojo”) del sistema de alerta temprana pasan un gran parte de su tiempo “observando” los puntos de lanzamiento continentales situados en el Estados Unidos continental, mirando en el ángulo correcto.

Sin embargo, la noche del incidente, el Sol, el satélite, y los puntos de lanzamiento americanos se alinearon en una manera tal que maximizaba la luz del sol que se reflejaba en las nubes situadas a alta altitud. Fueron unos cuantos de estos reflejos los que fueron erroneamente confundidos con el lanzamiento de misiles. Es difícil saber si este efecto fue del todo inesperado. Podría ser que hubiera sido la primera vez que este alineamiento hubiera ocurrido desde la puesta en marcha del sistema de satélites el año anterior. En cualquier caso, el programa que se suponía debía filtrar este tipo de reflejos se corrigió y pasó a cruzar los datos con los provenientes de un satélite geoestacionario.

Petrov se sintió el chivo expiatorio de todo el incidente, acabó reasignado a un puesto menos sensible y se jubiló voluntariamente de manera anticipada. Después del incidente, su salud se vio afectada, debido al stress, sufrió varias crisis nerviosas y parece ser que pasó varios meses en hospitales. El incidente y la acción de Petrov pasaron totalmente inadvertidos en Occidente e incluso en la URSS. La primera vez que se supo de él fue en los 90, después de la publicación de las memorias del comandante Yury Votinsev.

En mayo del 2004 Petrov recibió un premio de 1.000 dólares de manos de la asociación Ciudadanos del Mundo “en reconocimiento por el papel que jugó en evitar una catástrofe”. En enero de 2006, Petrov viajó a Estados Unidos donde fue homenajeado en una reunión de la Naciones Unidas.

Portada de la revista TIME del 12 de setiembre de 1983 sobre el derribo del 007 de KoreanAir

Todos estos homenajes y reconocimientos no gustaron a todo el mundo, en especial entre los herederos de la Unión Soviética, la Federación Rusa. El mismo día que Petrov recibió los honores de las Naciones Unidas, la misión rusa en la ONU rebajaba la importancia del papel jugado por Petrov afirmando que “bajo ninguna circunstancia la decisión de usar armas nucleares podía ser tomada o incluso considerada en la URSS o en los Estados Unidos en base a la información proveniente de una única fuente o sistema. Para que esto ocurriera, era necesario una confirmación de varios sistemas: radares terrestres, satélites, informaciones de inteligencia,…”.

Pero realmente ¿qué hubiera sucedido si Petrov se hubiera limitado a dar por cierta la alarma del sistema y hubiera informado a sus superiores de un ataque americano?, ¿hubieran ordenado una respuesta nuclear?

Algunos analistas de la Guerra Fría cuestionan que el protocolo descrito por los actuales líderes rusos se hubiera seguido de manera estricta en el caso de Petrov. Las relaciones entre americanos y soviéticos se encontraban en un momento especialmente difícil. La alarma coincidió con el comienzo de unos desafiantes ejercicios militares de la OTAN, los Able Archer 83, y apenas tres semanas después que los soviéticos derribaran un avión de pasajeros surcoreano, el vuelo 007 de KoreanAir, que había invadido el espacio aéreo de la URSS.

La falsa alarma de Petrov no podía haber llegado en un momento más complicado. Reagan llamaba a los soviéticos el “Imperio del Mal” y según Blair “los rusos veían un gobierno norteamericano preparándose para el primer ataque, dirigido por un presidente capaz de ordenarlo”, los informes del KGB así lo corroboraban y la URSS estaba preparada para responder. Oleg D. Kalugin , un antiguo agente del KGB y que conocía bien al presidente Andropov, afirma que la desconfianza de este hacia los lideres americanos era profunda. Andropov estaba obsesionado con la posibilidad que los americanos lanzaran un ataque nuclear por sorpresa, así que es probable que hubiera considerado la alerta de los satélites como la confirmación de sus temores, por lo que podría haber ordenado un contraataque que hubiera producido la destrucción mutua.


The Man Who Saved the World, ver video en youtube.com

Petrov vive hoy en día retirado en la ciudad e Fryazino y pese a los premios que ha recibido no se considera a sí mismo como un héroe. Según afirmó en una entrevista: “era mi trabajo, y era la persona correcta en el momento apropiado”. Su última mujer, que durante años no sabía nada del incidente, a menudo le preguntaba: “¿Qué hiciste?” y el respondía: “No hice nada”. En la actualidad, se está preparando un documental, “El hombre que salvó el mundo”, que se espera que se estrene en julio de este año, 2009, tal vez ayude a que este héroe reciba finalmente el reconocimiento que se merece.

PS: ¿Qué hubiera hecho Petrov si el sistema en vez de confundir los reflejos con unos cuantos misiles, los hubiera confundido con cientos de ellos?

Artículo de Cabovolo

jueves, 29 de enero de 2009

Servicio tecnico en la Edad Media

Ya entonces costaba entender los nuevos conceptos. Que poco hemos cambiado...


Visto en Una mala tarde.

lunes, 5 de enero de 2009

Trafico aereo

En este video se hace una representación del tráfico aéreo mundial en 24 horas. Es realmente impresionante cuantos aviones puede haber en el aire en un momento dado, y pensar que cada una de esas lucecitas son cien o trescientas personas.




World Air Traffic Over 24 Hours - video powered by Metacafe


Visto en DesvariandoAndo

lunes, 24 de noviembre de 2008

Granjeros en la realidad paralela


Apostado entre las ruinas de un viejo castillo, Li Qiwen pasa la noche matando monjes guerreros en los mundos de Azeroth. Uno tras otro, los cuerpos sin vida van arrojando al aire monedas y armas secretas que Li recopila cuidadosamente en su saco de pertenencias.

Li pasa doce horas al día, siete días a la semana, frente a la pantalla de un ordenador en un pequeño tugurio de Nanjing, en China. En cuanto termina su jornada, otro compañero se sienta en su silla, toma el control de su personaje y sigue matando monjes en el mundo virtual de World of Warcraft.

“A mis colegas y a mí”, explica otro jugador a The New York Times, “nos pagan por matar monstruos”. El negocio, conocido como “Gold farming” (cultivo de oro), emplea a unas 400.000 personas en todo el mundo y, según un estudio de la Universidad de Manchester, genera alrededor de 340 millones de euros de beneficios cada año.

Por cada cien monedas que arrebata a sus enemigos, Li recibe alrededor de 10 yuanes, una cantidad que apenas le da para sobrevivir. Su jefe, en cambio, obtendrá tres veces más dinero después de venderle las armas y monedas a algún jugador estadounidense o europeo que no tiene tiempo para conseguirlos por sí mismo en el juego.

A veces, mientras avanzan por extraños bosques en busca de criaturas a las que asaltar, el ataque de un monstruo aparentemente inferior provoca una conmoción inesperada. De pronto, sobre la pantalla aparece un mensaje que informa al granjero de los daños y de que debe recomenzar la partida. ¿Qué ha ocurrido? Un tercer jugador le ha atacado a traición.

El motivo está en el odio que muchos usuarios tienen a estos granjeros chinos, ya que consideran su forma de vida como una perversión del juego. En muchos foros es habitual los mensajes del tipo “Los granjeros chinos deben morir” y se organizan partidas de jugadores que acuden a las zonas frecuentadas por cultivadores para realizar una cacería.

Esta muerte virtual supone para muchos de estos granjeros un auténtico contratiempo, dado que la tarea de resucitar puede llevarles hasta diez minutos cada vez, y el patrón suele ponerlos en la calle cuando empiezan a fallar los resultados.

El conflicto ha llegado a tal extremo, que la discriminación empieza a estar organizada y muchos grupos de WOW realizan pruebas escritas para comprobar si los jugadores aspirantes son chinos y así negarles la entrada.

Nuevos modelos de explotación humana

Pero World of Warcraft no es el único juego masivo online (MMO) que genera este tipo de mercados. La posibilidad de adquirir armaduras, armas o pócimas secretas se repite a través de la red en todo tipo de juegos por más que los administradores traten de evitarlo. Y la economía virtual se extiende a otros ámbitos, como en el caso de la India, donde algunas empresas han comenzado a contratar a empleados para que resuelvan captchas las 24 horas del día con el fin de burlar los filtros contra el bombardeo de basura.

En realidad, se trata de la primera vez que un negocio virtual, con dinero de mentira, adquiere un valor tangible en el mundo real. Por eso el gobierno de China, que hasta ahora miraba para otro lado, acaba de anunciar que cobrará un impuesto del 20%- sobre estas transacciones, convirtiéndose en el primer gobierno del mundo que cobra un tributo por este tipo de actividad virtual.

Lamentablemente, la realidad paralela ha heredado algunos feos vicios como la vieja jerarquía del mundo real: los jugadores vietnamitas trabajan para los jugadores chinos y los jugadores chinos trabajan para los jugadores occidentales. Una rueda en la que los actores con menos recursos hacen el trabajo sucio de los acomodados a cambio de unas cuantas monedas de verdad.

Y el intercambio no se queda en armas y amuletos. Algunas avispados comerciantes viven incluso de suplantar al propio jugador y de cobrarle por vivir su vida virtual. Así, los negocios dedicados al denominado “Power leveling” (algo así como “aumento de nivel”) piden a los usuarios sus contraseñas y, a cambio de unos 300 dólares, se hacen cargo de su personaje hasta dejarlo en niveles que requerirían meses de juego.

Según cuenta The New York Times, Min Qinghai, otro de los jugadores atrapados en esta extraña espiral, ha muerto tantas veces en el juego que ni siquiera las puede recordar. Su vida se limita a un ir y venir por escenarios fantasmagóricos donde se enfrenta con monjes y monstruos a los que debe arrebatar el oro que otros gastarán. Después de dos años de partidas interminables, apenas ha salido de su barracón para algo que no sea tomar una comida rápida. Él, como otros de sus compañeros de juego, no tiene muchos sitios a dónde ir ni otra cosa en la que pensar. Al terminar la dura jornada de trabajo, muchos de estos jugadores se marchan a otros locales donde pasan el resto del día jugando nuevas partidas de WoW, perdidos y ensimismados en las lejanas llanuras de Azeroth de las que nunca conseguirán salir.

Lectura imprescindible: The Life of the Chinese Gold Farmer, Julian Dibbel (The New York Times)

El post en Guia para perplejos

sábado, 15 de noviembre de 2008

La energía eólica rebaja 6 euros el precio del MW/h en el mercado y supera el apoyo de las primas, según la AEE

La AEE señala que en 2007 esta rebaja redujo 1.198 millones de euros frente a los 991 millones de las primas percibidas. El pasado año la eólica evitó la importación en combustibles fósiles de casi 6 millones de toneladas equivalentes de petróleo (lo que supone un ahorro de 1.014 millones de euros) y la emisión de 18 millones de toneladas de CO2.

La Asociación Empresarial Eólica ha querido presentar los datos del año 2007 en materia de balance entre el ahorro en los precios de la energía que se negocia en el mercado, por su presencia. En este sentido, la AEE cifra en 207 millones de euros los ahorros que la eólica consigue frente a las primas recibidas por este tipo de tecnología de generación. En concreto, la rebaja en el precio se sitúa en 6 euros por MW/h, lo que supuso en 2007 un total de 1.198 euros de ahorro. Esta cifra es mayor que las primas que percibe, 991 millones de euros.

La AEE ha querido salir de esta manera al paso de las informaciones aparecidas en varios medios de comunicación y de los propios cuestionamientos que se realizan hacia las energías renovables. La AEE considera que los incentivos que percibe esta energía suponen una inversión muy positiva para la economía nacional, por sus importantes retornos socioeconómicos, pero también lo es para los consumidores eléctricos puesto que rebaja los costes del sistema en 207 millones de euros, es decir 4,5 € por ciudadano.

La AEE ve con preocupación que se culpe a las primas a las energías renovables como las causantes del déficit tarifario “El déficit es consecuencia de no adecuar la tarifa a los costes del sistema y que la discusión de dichos costes es otro debate” señala en un comunicado la Asociación.

Esta patronal señala que las primas que percibe no son un “sobrecoste” para el sistema, sino una contribución al ahorro para el mismo, puesto que al ofertar su producción a 0 € en el mercado de producción de energía eléctrica reduce en 6 €/MWh el precio del mismo al reducirse la necesidad de que se negocie la aportación de otras energías más caras. En este sentido los 27.394 GWh que aportó la eólica a 0 euros han permitido esa rebaja del precio, superior ya a las primas de esta tecnología. De no existir un peso tan importante de esta tecnología se debería haber atendido esta demanda con centrales que utilizan combustibles fósiles, con precios más caros.

Importaciones de combustibles fósiles evitados

También destaca la AEE, que si esa generación adicional se hubiera tenido que producir con combustibles fósiles (fundamentalmente gas, carbón y fuel) hubiera sido necesaria la importación de casi 6 millones de toneladas equivalentes de petróleo por un valor de 1.014 millones de euros, lo que es un ahorro conjunto para el país, más allá del sistema eléctrico. Incuso supone una reducción del déficit comercial exterior español. Además, la producción de esos 27.394 GWh evitó la emisión de 18 millones de toneladas de CO2 que se hubieran producido en la generación de esa cantidad de electricidad por centrales térmicas.

Finalmente, la AEE destaca la importancia de esta industria en España, que ya emplea a más de 40.000 personas y exporta por valor de 2.500 millones de euros en el ultimo año.

La AEE destaca en su comunicado el reconocimiento europeo al sistema de apoyo al precio de nuestro país como el más eficaz y eficiente para la promoción de las energías renovables en la Propuesta de Directiva de la Comisión Europea sobre el apoyo a estas tecnologías, de 23 de enero de 2008.

Régimen especial y renovables

Por último, la AEE quiere matizar que “el régimen especial no son sólo las energías renovables”, en clara alusión a la Propuesta de Tarifas 2009 elaborada por la CNE y que tanta polémica ha atraído. Los 2.859 millones de euros en primas como previsión de cierre de 2008, y los 3.523 ó 3.653 millones de euros para el cierre de 2009 citados por algún medio, corresponden no a las “energías verdes” sino al conjunto del Régimen Especial que incluye las tecnologías solar, eólica, hidráulica, biomasa, cogeneración, residuos y tratamiento de residuos.

“Sólo las cuatro primeras se consideran energías renovables. Atribuir, por tanto, como se hace tan a menudo, a las energías verdes el conjunto de las primas del Régimen Especial solo puede responder a la ignorancia o a una deliberada manipulación para confundir a la sociedad falseando la realidad”, señala la AEE. La CNE en su propuesta de tarifas no desglosa las primas por tecnologías. Según la liquidación del año 2007, de los 2.236 millones de euros en primas del Régimen Especial en 2007, 1.428 millones corresponden a las energías renovables y 991 millones a la eólica, es decir un 44 % del total aunque su producción supone un 47 % de la generación del conjunto del Régimen Especial.

En la previsión para 2008 la CNE, estima una producción para la energía eólica de 29.083 GWh a través del mercado y 1.822 GWh a través de distribuidora, que darían lugar, a unas primas en torno a los 1.100 millones de euros para este año y que podrían alcanzar en 2009 los 1.300 millones de euros. Hay que tener en cuenta que los parques eólicos puestos en funcionamiento desde el 1 de enero de este año se acogen ya al sistema retributivo del RD 661/2007 que contempla un techo para la prima lo que supondrá que el incremento del conjunto de las primas de la eólica se reduzca sensiblemente.

La noticia en energiadiario.com

jueves, 30 de octubre de 2008

El hidrogeno tambien pincha

Honda acaba de meter en la línea de montaje su primer modelo comercial alimentado por hidrógeno, el FCX Clarity, "un paso monumental en la historia de la tecnología de células de combustible", según el directivo de la empresa John Mendel. Los primeros en adquirirlo han sido la actriz Jamie Lee Curtis y cuatro vecinos suyos de Beverly Hills, en Los Ángeles, pues el sur de California es uno de los pocos lugares del mundo donde hay alguna gasolinera de hidrógeno donde repostar.

Este gas ha capturado la imaginación de los augures tecnológicos, desde Julio Verne hasta Jeremy Rifkin. En parte por su abundancia (se puede obtener del agua), y en parte por una ecuación química que se ha convertido en su consigna publicitaria: hidrógeno más aire para dar electricidad y agua potable. Ambos factores contaron para que el sociólogo Rifkin lo ensalzara como una "fuente de energía inagotable" en su éxito de ventas La economía del hidrógeno(2002).

El presidente Bush inauguró oficialmente dicha economía en 2003, cuando anunció su "iniciativa de la célula de combustible" (www.hydrogen.gov). (El término célula de combustible se usa para distinguir los actuales motores de hidrógeno de los antiguos, que se limitaban a quemar el hidrógeno como si fuera gasolina).

El gobernador Arnold Schwarzenegger deslumbró California un año después con su visión tecnolíricade una "autopista de hidrógeno con rumbo al futuro medioambiental" (le faltó "ardiendo más allá de Orión", pensará algún nostálgico de Blade Runner). Schwarzenegger ha sido un campeón legal y financiero del hidrógeno desde entonces 

Este año no habrá muchos más FCX Clarity por las autopistas de hidrógeno ni por las carreteras del mundo, porque Honda sólo planea producir 30 o 40 vehículos hasta diciembre. Y no más de 200 de aquí a 2010. El coche cuesta 440 euros al mes en régimen de leasing (alquiler cierto, compra eventual), la única opción disponible incluso en Beverly Hills. Los fabricantes, eso sí, subrayan que estos modelos triplican la"eficiencia de combustible" de los coches de gasolina.

El Congreso de Estados Unidos ha financiado las investigaciones sobre el motor de hidrógeno con más de 1.000 millones de dólares (780 millones de euros) en los últimos cinco años. El Parlamento Europeo aprobó en mayo una partida de 470 millones de euros para una iniciativa de células de hidrógeno, con la recomendación al sector privado de que pusiera otro tanto.

Pero si ha habido una compañía automovilística pionera de la economía del hidrógeno, ésa es General Motors (GM), que ya apostó por esta tecnología en 1998. Y todavía en enero de este año, durante una muestra de electrónica comercial en Las Vegas, el presidente de la firma, Rick Wagoner, presentó el nuevo coche de hidrógeno Cadillac Provoq con una autonomía de 480 kilómetros, "la promesa de un medio de transporte verdaderamente sostenible".

No tan sostenible resultó la propia promesa, porque General Motors rompió oficialmente con la economía del hidrógeno ocho semanas después. El vicepresidente de la compañía, Bob Lutz, descartó en marzo, durante el salón del automóvil de Ginebra, la viabilidad de los coches de hidrógeno "para la producción en masa a corto plazo", según declaró a The Wall Street Journal.

Tanto la empresa General Motors como Toyota veían ahora más interesantes los coches eléctricos. Lutz ensalzó explícitamente las nuevas baterías de ión de litio, desarrolladas inicialmente para mejorar los teléfonos móviles, "que permiten plantearse coches a pilascon una autonomía de 500 kilómetros". El vicepresidente de GM resaltaba que, como las de los móviles modernos, estas baterías son recargables y carecen de efecto memoria(se pueden recargar aunque estén a medias).

"Hay barreras graves para los coches de hidrógeno", dice el subdirector del Instituto de Investigación del Automóvil de la Universidad Politécnica de Madrid (Insia), José María López. "El almacenamiento es una de ellas. El hidrógeno es un gas, y su densidad de energía es muy baja; por tanto, o le pones al coche un depósito de 700 litros, o tienes que aumentar mucho la presión, y ninguna de las dos cosas es muy práctica". López es autor del libro El medio ambiente y el automóvil, publicado por Dossat.

La electrolisis es la separación (lysis, en griego) de la molécula de agua en sus componentes (dos átomos de hidrógeno y uno de oxígeno) gracias a la energía aportada por la electricidad. Los actuales coches de hidrógeno (o sus mencionadas "células de combustible") hacen justo lo contrario: el hidrógeno que hemos repostado se combina con el oxígeno del aire produciendo agua y energía eléctrica.

Para que ocurra lo contrario de la electrolisis, por desgracia, primero tiene que ocurrir la electrolisis o un proceso similar. Es decir, que primero hay que gastarse la energía en obtener el hidrógeno para luego poder gastarse el hidrógeno en obtener energía. Por eso Rifkin y otros abogados del hidrógeno yerran al declararlo una fuente de energía inagotable: porque será inagotable, pero no es una fuente de energía.

"El hidrógeno no es un combustible natural", dice López. "Hay que producirlo, y hasta la fecha es muy costoso. No resultará viable en un plazo previsible, y energéticamente es un desastre, porque producir el hidrógeno cuesta más energía de la que luego da". "Sólo del 20% al 25% de la energía utilizada como fuente para sintetizar hidrógeno a partir de compuestos naturales puede recuperarse después para su uso final en células de combustible", calcula Ulf Bossel, del European Fuel Cell Forum, en Lucerna. "Como las leyes de la física no pueden cambiarse con políticas o inversiones, la economía del hidrógeno nunca tendrá sentido".

Hay más problemas. Las "células de hidrógeno" son totalmente limpias en la carretera. Sólo emiten vapor de agua. Pero la gasolina no hay que fabricarla, y el hidrógeno sí. Según un estudio del laboratorio Oak Ridge, una instalación federal del Departamento de Energía estadounidense, hay dos formas viables de producir hidrógeno a corto plazo: a partir de gas natural en las propias estaciones de servicio, y a partir de biomasa o carbón en grandes factorías centralizadas.

Producir un kilo de hidrógeno por el primer método emite 12 kilos de dióxido de carbono. Esto quiere decir que los actuales coches de hidrógeno de Honda y General Motors emiten (antes de arrancar) entre 110 y 190 gramos de dióxido de carbono por kilómetro. La primera es una cifra comparable a los coches modernos de gasolina de pequeño tamaño.

En el caso del segundo procedimiento, habría que considerar además las emisiones derivadas de transportar el hidrógeno desde la factoría donde se producirá hasta las estaciones de servicio donde lo repostarán Jamie Lee Curtis y sus cuatro vecinos.

Uno de los pioneros mundiales de la tecnología del hidrógeno, Ballard Power Systems, vendió en noviembre su división de células de combustible para automóviles a Daimler y Ford, tras registrar pérdidas durante cerca de 10 años.

Dos de las petroleras que más han defendido la economía del hidrógeno son Shell y BP. La primera tiene actualmente seis estaciones de servicio para repostar hidrógeno en todo el mundo. Y la segunda tenía sólo una, y la cerró el año pasado. De las últimas declaraciones de sus directivos se desprende que la compañía está más interesada ahora en los biocombustibles que en el hidrógeno.

Una economía del hidrógeno sólo tendría sentido si el gas se produjera a partir de energías renovables, pero incluso esa opción es insostenible. Entre las células fotoeléctricas o los molinos de viento y el depósito del coche, el hidrógeno tiene que ser producido, transportado, almacenado, transferido al coche, almacenado de nuevo e inyectado en la célula de combustible, y todos esos pasos requieren una energía que no se recupera.

Según los cálculos de Bossel (Proceedings of the IEEE, 94:10), se precisarían cuatro plantas de energía renovable para producir la misma energía (en hidrógeno) que produce una sola planta (directamente en electricidad). Tres de las plantas estarían dedicadas a tiempo completo a cubrir las pérdidas durante la producción y el transporte del hidrógeno.

Según el ingeniero del European Fuel Cell Forum, todas esas pérdidas de energía serían cargadas al consumidor, como parece lógico, de donde se desprende que el hidrógeno cuadruplicaría el precio de la energía eléctrica en régimen de libre mercado. Visto lo cual, se pregunta retóricamente: "¿Quién querrá conducir un coche de hidrógeno?". Ésa es fácil: Jamie Lee Curtis.

La mayor parte de los inconvenientes del hidrógeno no se resolverán nunca, porque no se derivan de una deficiente tecnología actual, sino de sus mismas propiedades físicas. El hidrógeno tiene una densidad de energía muy baja: un tercio de la del metano, por ejemplo. Incluso cuando se le comprime hasta el estado líquido, un litro de hidrógeno aún tiene 3,5 veces menos energía que un litro de gasolina.

"Las leyes de la física exponen la debilidad de la economía del hidrógeno", asegura Bossel. "El hidrógeno, un mero transportador artificial de energía, jamás podrá competir con su propia fuente de energía, que es la electricidad, en ningún futuro sostenible". Tal vez por eso, los dos gigantes citados del sector del automóvil, General Motors y Toyota se centran ahora en las pilas de los teléfonos móviles. ¿Aciertan esta vez? ¿Es ésa la opción de futuro?

"Los coches puramente eléctricos también tienen de momento el problema del tamaño de la batería", advierte López. "Se necesitaría un remolque, y no sería práctico".

Además, las baterías de litio tienen un problema poco conocido. "El litio es explosivo", puntualiza el ingeniero del Insia. "De hecho, casi todo el mundo ignora que no es conveniente hablar por el móvil mientras se está cargando. La temperatura sube al cargar la batería, y eso aumenta algo el riesgo de explosión, sin ser alarmistas". Sin alarmismos, este redactor ya no lo hace.

Las baterías de ión de litio de los coches, como las de los teléfonos móviles, se podrán recargar sin más que enchufarlas a la red. Pero esto no es tan inofensivo como puede parecer. "Si el 50% de la flota de Madrid, por poner un caso, fuera eléctrica", advierte López, "la red se vendría abajo por la noche, cuando los coches estuvieran cargando".

La petrolera BP ha desviado su atención del hidrógeno a los biocombustibles. ¿Pueden ir por ahí los tiros? Tampoco. "Los biocombustibles no son la solución", dice el ingeniero. "Las plantas absorben dióxido de carbono, es cierto, pero el coche lo emite luego en la ciudad". La desviación de grandes superficies de cultivo a la producción de combustible plantea también otros problemas relacionados con la biodiversidad y con el principal objetivo de la agricultura: la alimentación de las personas y el ganado.

Para el subdirector del Insia, como para muchos otros especialistas, el futuro inmediato es la hibridación: una batería de ión de litio que sirve para la mayor parte de las situaciones en la ciudad, y otro tipo de motor (gasolina, hidrógeno, solar) que ahorre espacio y añada potencia en carretera, adelantamientos y demás. "El Episón", dice López, "un vehículo que estamos desarrollando en el instituto, es un trihíbrido que lleva un motor eléctrico, una pila de hidrógeno y varias placas solares".

Cuando tres personas sensatas sostienen posturas irreconciliables hasta la furia, siempre acaban teniendo razón a la vez.

Una alternativa de futuro que requiere millones

Según el Departamento de Enegía de Estados Unidos, poner en las carreteras dos millones de vehículos de hidrógeno necesitaría una inversión pública de 10.000 millones de dólares (8.000 millones de euros) de aquí a 2025. Elevar la cifra a 10 millones de coches aumentaría el coste más de cuatro veces. Y esas cifras son de todos modos cinco veces inferiores que las calculadas por Academia Nacional de Ciencias norteamericana.

Con todo, sus defensores siguen viendo esperanzas en el futuro. La petrolera Shell considera un objetivo alcanzable la producción "masiva" de vehículos de hidrógeno para el año 2020. El Departamento de Energía de Estados Unidos sostiene que los coches de hidrógeno serán "prácticos y económicamente eficaces" hacia esas mismas fechas. La petrolera BP prefiere hablar del año 2030.


Artículo El timo de hidrógeno por petróleo, en este blog

El reportaje de Javier Sampedro en El Pais

sábado, 27 de septiembre de 2008

Errores de guerra





Visto en DesvariandoAndo

jueves, 11 de septiembre de 2008

El fin de la era de los PC y sus consecuencias

LOS LIBROS SIGUEN SIENDO espacios privilegiados de reflexión hasta para entender las nuevas tecnologías. El último que lo ilustra es The Big Switch: Rewiring the World, from Edison to Google, escrito por Nicholas Carr, especialista del impacto de la informática en el mundo empresarial.

Carr explica los cambios que ayudan a percibir de manera más clara las grandes tendencias detrás del desorden de la Web 2.0. Nos invita también a medir críticamente el impacto social de esas evoluciones.

El paso de la informática por una evolución similar a la que conoció la electricidad a finales del siglo XIX es el tema de la primera parte. Carr muestra cómo la energía eléctrica se producía localmente (cada empresa producía la que necesitaba) hasta que fue posible producirla masivamente y transportarla sobre grandes distancias por un coste mínimo.

Hoy día, "los sistemas informáticos privados, construidos y operados por cada compañía son desplazados por servicios brindados a través de Internet por centrales procesadoras de datos", escribe. Las más grandes son construidas por Google, Microsoft y Yahoo, pero otros se crean y ofrecen sus servicios a quienes los quieran. Da lugar a lo que el llama el World Wide Computer, sucesor de la World Wide Web. La red es la computadora.

La gente medianamente avanzada ya tiene una noción del fenómeno cuando deja sus documentos en la red y/o usan aplicaciones que no están en sus máquinas. Es lo que se llama la computación en las nubes o cloud computing porque no se sabe con precisión dónde está el servidor, ni los documentos ni las aplicaciones.

El Big Switch es un viaje del otro lado de este mismo fenómeno, del lado que lleva las empresas a adoptarlo, lo cual nos termina afectando a todos. Confían servidores, aplicaciones y documentos a entidades especializadas y pueden prescindir del costoso departamento informático. Les permite aprovechar importantes economías de escala y, en muchos casos, sistemas más fiables.

Muchas empresas cambian a regañadientes, pero el fenómeno y su lógica son implacables. Una nueva tecnología, nos recuerda Carr, llega a la madurez "cuando quienes han crecido con ella se vuelven adultos y empiezan a empujar a sus padres hacia los márgenes".

El impacto social de la computación es el segundo gran tema, en el cual Carr se aplica a tomar distancias con las visiones más optimistas del futuro informático, en particular, las que alaban sus virtudes liberadoras.

"Los sistemas computacionales en general e Internet en particular ponen un poder enorme en las manos de los individuos, pero ponen un poder más grande en las compañías, gobiernos y otras instituciones cuya función es controlar a los individuos. Los sistemas computacionales no son, en su corazón, tecnologías de emancipación. Son tecnologías de control", afirma.

"Aun cuando Internet todavía no tiene centro, técnicamente hablando el control puede ser ejercido ahora mediante código informático desde cualquier parte. Lo diferente del mundo físico es que se vuelve más difícil detectar la acción de control y su ejercicio más difícil de discernir".

Para Carr, las consecuencias sociales de la evolución tecnológica en curso "serán determinadas en amplia medida por la manera en la cual la tensión entre las dos caras de su naturaleza -liberadora y controladora- se resolverá". Pero todas pecan de la misma debilidad: creen que la resolución de dichas tensiones depende de la "naturaleza" de la tecnología en cuestión. No es así. Algunas de sus características favorecerán su uso emancipador y otras su uso con fines de control social.

En el fondo, la evolución depende más de los conflictos entre fuerzas sociales y humanas que promueven su uso emancipador y fuerzas que lo combaten. Toda tecnología puede ser utilizada para emancipar o controlar. Todas son herramientas. Lo que cuenta, al final, es preguntarse en cada caso quiénes las usan, para qué y para quienes.

El artículo en El País

miércoles, 23 de julio de 2008

Hazme el trabajo y luego me lo compras

... O como las grandes compañías aprenden de la colaboración en el software libre aplicándolo a su exclusivo beneficio... porque no es software libre.

Si, esto ocurre. La compañia Tomtom dispone desde hace unos meses de un servicio llamado MapShare, donde son los propios usuarios los que recomiendan cambios sobre los mapas al descubrir errores en los mismos.

Según la compañía, "TomTom Map Share es una tecnología exclusiva que le permite agregar, actualizar y personalizar sus mapas al instante. También le permite compartir los cambios realizados por otros usuarios y beneficiarse de ellos a diario y de manera sencilla y automática a través de TomTom HOME. La tecnología TomTom Map Share pone al alcance de los conductores que posean un dispositivo TomTom los mapas más actualizados".


Una gran idea, es como tener a miles de agentes de campo mejorando los mapas. Obviamente, esto redunda en un beneficio claro para los usuarios de los mismos. Entonces... ¿cual es el problema? Bueno, ese trabajo que le estamos haciendo gratis a la compañía deberían hacerlo ellos mismos, contratando a quien consideren necesario. Los mapas son de pago, y las actualizaciones de mapas también lo son. De hecho, si el mapa que tenemos no es compatible con el software MapShare para hacerles el trabajo gratis, nos dicen que "Si su mapa no cumple los requisitos mínimos para la función TomTom Map Share, puede comprar nuevos mapas aquí."

Las actualizaciones MapShare no hay que pagarlas, solo faltaría eso. No solo es un trabajo de los usuarios y compradores de los mapas, si no que además son correcciones a mapas con defectos, aunque hay que admitir que también se arreglan cambios que ocurrieron después de sacar los mapas.
Sin embargo, mantener los mapas actualizados y sin fallos debería ser un servicio imprescindible para que no ocurran cosas como estas:

Culpan al navegador GPS de 300.000 accidentes en Reino Unido. "En realidad deberían culpar más bien a los conductores que obedecen ciegamente sus instrucciones, pero el navegador GPS es un aparato claramente falible, que en ocasiones dirige a los conductores en dirección prohibida (al parecer en cinco millones de ocasiones, según este estudio, realizado para The Mirror por la aseguradora Línea Directa).

Un 10% de sus usuarios manifiestan que el navegador les sugirió un giro ilegal o peligroso, y 300.000 afirman que les provocó un acccidente o estuvo a punto de hacerlo. Otros conductores acaban en la cuneta por confusiones al interpretar los símbolos del navegador, distracciones o discrepancias entre lo que señala el navegador y lo que les dice su acompañante. Incluso la pasada semana se suspendió una condena de cárcel para un conductor que causó el choque de un tren tras alegar que el GPS le llevó a invadir la línea férrea Newcastle-Carlisle.

Al parecer unos 14 millones de conductores británicos disponen de navegador GPS en sus vehículos, lo que equivale a la mitad del total de conductores..." Referencias: SatNav danger revealed: Navigation device blamed for causing 300,000 crashes

Señores de Tomtom y otros fabricantes de GPS, no nos vendan mapas defectuosos, y si quieren que los usuarios colaboremos en la realización de los mapas, no tengan la caradura de venderlos luego a esos mismos usuarios. Aprendan del movimiento del software libre, o los mapas no se venden, o el trabajo lo hacen ustedes. Por supuesto sin defectos, así como actualizaciones periódicas.

Claro, eso implicaría que no podrían vendernos actualizaciones, pero sería un trabajo bien hecho que evitaría accidentes y todo tipo de daños.

sábado, 19 de julio de 2008

La magia digital

En este vídeo se ve (muy resumido, obviamente) como, con tres extras, algo de material y cuatro dias de rodaje se pueden hacer maravillas. Aparte el tiempo dedicado al ordenador, que siempre será mas barato que llenar una playa de extras y material. Simplemente alucinante.


martes, 15 de julio de 2008

Curioso método de demolición

La constructora Kajima está demoliendo un par de edificios de 75 metros en Tokyo utilizando un método silencioso, limpio y un 20% más rápido que cualquier otro método. Fijaos en el vídeo para ver el método, van reemplazando las columnas de la primera planta por columnas de metal soportadas por un sistema hidráulico y controladas por ordenador, hacen bajar todo el edificio y vuelven a repetir el proceso una y otra vez:




El artículo completo en Kirai, un geek en Japón

domingo, 13 de julio de 2008

El Cenit del petroleo, de nuevo

En una entrada del 6 de mayo de 2007 hablaba sobre el cénit del petroleo. Acompañaba el artículo con un vídeo de 50 minutos subtitulado al español. Muy interesante, pero quizá algo denso para mucha gente.

La actual escalada de precios del petróleo, sin visos de retroceder, le da nueva actualidad, aunque en realidad nunca dejó de tenerla.

Este otro vídeo, de Oily Cassandra, resume lo mismo y lo expone de un modo mas "visual".

Aquí van los dos vídeos por si alguien quiere profundizar en el tema después de ver el de Oily Cassandra.





domingo, 29 de junio de 2008

El primer hombre en la Luna pudo ser una mujer


Se llamaba Jerrie Cobb y cumplía todos los requisitos para las duras condiciones de la misión espacial. Pero el machismo de la época no podía permitir que la primera pisada en la Luna fuera de una mujer. La discrimación llegaba al espacio. Hasta 1983, la NASA no rectificó.

Hace unas semanas, Hillary Clinton, en el discurso que marcaba el final de su campaña política, a la hora de valorar el terreno que durante décadas han ido ganando las mujeres en su país utilizó a las astronautas como ejemplo: “Mientras estamos aquí hablando, la mujer número 50 en abandonar la Tierra orbita sobre nuestras cabezas”. En ese vistoso empeño que ha hecho Estados Unidos por conquistar el espacio, las mujeres, a pesar de la tumultuosa cincuentena esgrimida por Clinton, han desempeñado un papel especialmente infeliz. En 1958, cuando la NASA inauguró la carrera espacial, el sexo de los astronautas era determinante, y, de no haber sido así, es muy probable que el primer hombre en la Luna hubiera sido mujer. El 22 de diciembre de aquel mismo año inaugural apareció en todos los periódicos del país una convocatoria para candidatos a astronauta; se ofrecía un salario anual que oscilaba, según las aptitudes del aspirante, entre 8.330 y 12.770 dólares de la época, y en el inciso III, unas líneas por debajo del salario, decía con todas sus letras: “Los aspirantes deben ser hombres de entre 25 y 40 años”. También se especificaba, un poco más abajo, que para ganarse uno de los siete puestos que se ofrecían era necesario resistir una batería de 75 pruebas físicas, de dureza extrema, y otras tantas de espectro psicológico. Aunque la convocatoria excluía, de forma rotunda, a cualquier mujer que pudiera optar por el novísimo trabajo de astronauta, el director del área científica de la NASA, William Randolph Lovelace, hizo algunas excepciones: 14, para ser precisos.

Aquel programa primigenio, que años después se encadenaría con el Gemini y con el Apollo que finalmente llegó a la Luna, se llamaba Mercury, y tenía entre sus objetivos observar el comportamiento del organismo humano en el espacio exterior y, sobre todo, convertirse en líder de la carrera espacial, porque un año antes la Unión Soviética, de forma sorpresiva y altanera, se había colocado a la cabeza con el lanzamiento del Sputnik II, una sólida nave de diseño rudo que llevaba en su interior una perra siberian husky de nombre Laika; el animal había viajado con el cuerpo sembrado de electrodos, iba con la encomienda de probar de qué forma se desenvolvía un mamífero en el espacio exterior, y de paso también la de celebrar, con su hazaña eminentemente involuntaria, el 40º aniversario de la Revolución de Octubre. Los primeros informes, de manufactura desde luego soviética, decían que Laika había sobrevivido una semana a bordo del Sputnik II y que después había muerto en paz y sin experimentar dolor alguno. Pero otro informe más reciente, desclasificado en 2002 y también de manufactura soviética, dice que Laika murió de pánico y sobrecalentamiento unos minutos después del despegue. Como los dos informes provienen de la misma fuente, no queda más que acogerse a la evidencia final, donde cabe cualquier cosa que quiera decirse sobre el destino de Laika: cinco meses después de su lanzamiento, el Sputnik II, con la perra no se sabe si viva o muerta, pero en su interior, se desintegró cuando sobrevolaba Barbados.

El doctor Lovelace era un experto en medicina espacial y contaba entre sus galones la invención de la máscara de oxígeno de gran altitud, esa suerte de trompa que cubre nariz y boca y que se ponen los pilotos de los aviones de combate. Como Lovelace era un científico sumamente comprometido, decidió que él mismo probaría su invento, así que subió a 40.200 pies de altitud, a bordo de un bombardero B-17, y desde ahí se tiró con el prototipo de la máscara puesto. Pero la altitud y el frío eran tan salvajes que el doctor Lovelace, justamente después de abrir su paracaídas, quedó inconsciente y no se recuperó hasta que estaba a unos cuantos metros de la Tierra, colgando de la rama del pino donde su paracaídas se había enganchado. Muchos años dedicó el doctor Lovelace a la investigación espacial, hizo una de las carreras más contundentes que recuerda la NASA, y como punto final, paradójico y trágico para esa vida dedicada a resolver los misterios del vuelo, se estrelló en un avión en Aspen, Colorado. Como homenaje a su colega desaparecido, la comunidad científica eligió un cráter en la Luna, de 54 kilómetros de diámetro, y lo bautizó con el nombre de Lovelace Crater.

Aun cuando en EE UU la historia del vuelo dentro y fuera de la atmósfera ha sido esencialmente masculina, las mujeres han estado involucradas de manera activa, casi siempre a la sombra. En 1930 había 200 mujeres piloto registradas; para la II Guerra Mundial, el número ascendía a 935 y constituía el 31,3% del personal de la Fuerza Aérea. Aunque el porcentaje era significativo para esos años, las mujeres no tenían derecho al grado militar y desempeñaban exclusivamente tareas de apoyo: pilotos de pruebas, controladoras aéreas, mecánicas o instructoras. No obstante, en 1958, cuando Lovelace se puso a diseñar la misión del Mercury 7, descubrió que uno de los mejores historiales de la Fuerza Aérea correspondía a Geraldine Cobb, una mujer que a los 28 años llevaba 7.000 horas de vuelo y tres récords mundiales de aviación. Uno de los requisitos para formar parte de la misión era, como se ha dicho, ser hombre. Sin embargo, Lovelace encontró en Geraldine a la candidata perfecta; era tan diestra y resistente como cualquier astronauta hombre, y además su complexión se ajustaba perfectamente a los requerimientos de la nave, que contaba con un espacio mínimo para la tripulación y no admitía cuerpos que midieran más de 1,80 metros ni que pesaran más de 82 kilos. A todo eso se sumaba el dato crucial de que las mujeres consumen menos oxígeno que los hombres, y esto constituía una gran ventaja para esa misión donde cada gramo de oxígeno que se enviaba al espacio costaba alrededor de 77 dólares.

A Lovelace le pareció que éstos eran argumentos suficientes para incluir a pilotos mujeres en la convocatoria, y comenzó a trabajar con ellas en un grupo paralelo de 13 astronautas; el otro grupo, el de los hombres, había sido rápidamente constituido con los elementos más destacados de la Fuerza Aérea. Lovelace trabajaba, bajo una presión extrema, en un centro de investigación médica que él mismo había fundado en Albuquerque, Nuevo México, y que dos décadas más tarde, en 1979, quedó inmortalizado en la novela The right stuff, del escritor Tom Wolfe. La idea de que los rusos, luego del palo que había significado el vuelo de la perra Laika, consiguieran poner primero a un hombre en órbita aterrorizaba a los directivos de la NASA, entre otras cosas porque la conquista del espacio era una de las prioridades del presidente Dwight Eisenhower; tanto que mientras Lovelace confeccionaba su tripulación, otro departamento se ocupaba de poner en órbita la nave Little Joe II, que era la respuesta directa al Sputnik II, pero, en lugar de un siberian husky, llevaba a bordo un mono, de nombre Sam y sexo, por supuesto, masculino. Con esa misión, la NASA logró tratar de tú a tú a la URSS; ambos países habían mandado un organismo vivo al espacio, y en lo que trataban de dar el golpe definitivo enviando a un hombre, EE UU se puso temporalmente a la cabeza con el lanzamiento, unos meses más tarde, de la nave Little Joe I-B, que llevaba dentro un mono hembra con un nombre que reflejaba el superávit de testosterona que había entonces en la NASA: en lugar de llamarla Cindy o Rosy, los responsables de la misión le pusieron Miss Sam (Señorita Sam), en honor al mono macho que la había precedido.

A mediados de 1960, el doctor Lovelace, convencido de que en la tripulación del Mercury 7 tenía que haber mujeres, aplicó a un grupo de 14 la misma batería de pruebas físicas y psicológicas que a los hombres; como se trataba de pruebas muy arduas y sofisticadas, las candidatas tenían que desplazarse hasta el centro de investigación que tenía Lovelace en Nuevo México y hospedarse ahí durante varias semanas. Aquella estancia que para los hombres –todos oficiales de la Fuerza Aérea– era pura rutina, para las mujeres, que pertenecían al mundo civil, suponía un enorme sacrificio que les generaba dificultades con su familia y en sus trabajos. Geraldine Cobb, por ejemplo, era, además de piloto de caza sin grado militar, ejecutiva de una compañía que diseñaba piezas para el fuselaje de los aviones. El resultado de las pruebas confirmó lo que el doctor Lovelace había previsto: mujeres y hombres están igualmente capacitados para ser astronautas, pero también descubrió que las mujeres soportan mejor la presión psicológica y las angustiosas horas de soledad espacial a las que está expuesto un astronauta. Convencido de que la tripulación del Mercury 7 tenía que ser mixta, y sobre todo de que Geraldine Cobb, que era el astronauta más capaz que tenía la NASA, debía encabezar el proyecto, envío los resultados de su selección a George Low, que entonces era director de misiones espaciales.

Mientras la junta directiva deliberaba, los rusos asestaban el palo definitivo, un palo del que Estados Unidos no podría recuperarse hasta 1969, cuando Neil Armstrong pisara la Luna con sus botas: el cosmonauta Yuri Gagarin fue puesto en órbita en abril de 1961 y permaneció 108 minutos gravitando alrededor de la Tierra; aquella proeza se adelantó un mes al lanzamiento del Mercury 7, que con todo logró completar una misión exitosa que igualó nuevamente la carrera espacial. Al mando de la nave iba el astronauta Alan Sheperd, un destacado elemento que, además de ser el primer estadounidense que salió al espacio, fue años después el quinto hombre que pisó la Luna; el resto de la tripulación del Mercury, los otros seis, eran todos hombres. Las mujeres fueron finalmente descalificadas por la directiva; cada una recibió en su casa un telegrama, firmado por el mismo George Low, donde decía: “No sentimos, en este momento, que esto represente alguna ventaja para nuestro programa espacial”.

Dos años más tarde, en 1963, cuando Geraldine Cobb ya había colgado su traje de astronauta y se había convertido en una alta ejecutiva, los temibles rusos pusieron en órbita la nave Vostok VI, tripulada por Valentina Tereshkova, la primera mujer en la historia que salió al espacio; había sido elegida entre 400 candidatos, tenía 26 años y el nombre falso, y juguetón, de Chaika (gaviota en ruso). A pesar del precedente que estableció Chaika, la decisión de no incluir a mujeres en el programa espacial de la NASA se mantuvo hasta 1983, cuando Sally Kristen Ride protagonizó un acontecimiento que llevaba más de 20 años de retraso: en una misión de seis días a bordo de la nave Challenger, se convirtió en la primera mujer estadounidense en salir al espacio. Un año más tarde rizó el rizo de Tereshkova al convertirse en la primera mujer de la historia que caminó, durante 3 horas y 35 minutos, por el vacío espacial.

Artículo en El País Semanal

jueves, 26 de junio de 2008

Evolución de los trajes espaciales de la NASA



Cada vez parecemos menos humanos...

Visto en Abadia Digital.
Todas las imágenes en la página web de la NASA.

jueves, 12 de junio de 2008

Manejo de herramientas

En el trabajo con herramientas, la seguridad es lo primero. En este vídeo se nos indica una forma segura de hacerlo. Recomiendo no ver el vídeo mientras se manejan las herramientas :-)

miércoles, 4 de junio de 2008

Campos magneticos visibles

El Space Sciences Laboratory de la NASA ha conseguido hacer visible los campos magnéticos en un vídeo. El vídeo llamado "Magnetic Movie" nos muestra estos campos en diferentes colores formando una danza de una curiosa belleza.


lunes, 26 de noviembre de 2007

Reactores nucleares de bolsillo

Las nuevas tecnologías irrumpen a causa de la crisis energética

El reactor nuclear portátil tiene el tamaño de un jacuzzi. Tiene la forma de una taza de sake, rellena con un núcleo de hidruro de uranio rodeado de una atmósfera de hidrógeno. Encapsúlalo en un arcón de hormigón, transpórtalo hasta su emplazamiento, entiérralo a buena profundidad, conéctalo a una turbina de vapor y, voilá, conseguirás suficiente electricidad como para satisfacer el consumo de una comunidad de 25.000 hogares durante al menos cinco años.
El mes pasado se creó la compañía Hyperion Power Generation para desarrollar el reactor de fisión nuclear ideado en el Laboratorio Nacional de Los Álamos, tras lo cual llegará al sector privado. Si todo va según lo planeado, Hyperion podría contar con una fábrica en Nuevo México para finales del 2012, fecha en que comenzaría la producción de 4.000 de estos reactores.
Aunque produciría 27 megavatios válidos de energía térmica, a Hyperion no le gusta pensar en su producto como un reactor. Es autocontenido, no incluye partes móviles y por ello, no necesita la presencia de un operador humano.
De hecho, al ser tan seguro, Hyperion prefiere llamarlo unidad, batería, o módulo, tal y como nos indica Deborah Blackwell, portavoz de la compañía. Al igual que una pila AA normal, que nunca se abre para ver sus compuestos químicos internos - sino que simplemente se instala - nunca tendrás que abrirla o manejarla.
Otis Peterson, científico del LANL, cubrió la patente del reactor nuclear de fisión en 2003. En teoría, el reactor emplea cristales de uranio e isótopos de hidrógeno para crear un equilibro interno auto-regulado. Al tratarse de un concepto tan nuevo, los activistas anti-nucleares aún no están muy seguros de como reaccionar. Pero la palabra “escéptico” tal vez peque de demasiado generosa para las primeras reacciones, ante la afirmación de Hyperion, de que se trata de una fuente de energía limpia.
Todo el concepto es una locura y no merece la pena que le prestemos atención, comenta el director ejecutivo del grupo de estudios de Los Álamos, Greg Mello. Por supuesto, teniendo en cuenta el alto nivel de amiguismo, corrupción, ignorancia y entusiasmo oficial, es posible que los peces gordos hagan algo de dinero con esto durante las fases iniciales, antes de que los cuervos vuelvan a posarse en sus perchas.
El resto del artículo en el blog de Maikelnai

sábado, 2 de junio de 2007

El dia en que Internet desafió a EEUU

La Red es un ejemplo de anarquía autorregulada, lo justito para garantizar su funcionamiento. Y esta independencia es real; tiene un porqué. Los 'techies' de Internet plantaron cara y vencieron en una confrontación a un gobierno EEUU que quería hacerse con el control real de la Red. En una oscura y poco conocida batalla en febrero de 1998, la comunidad internauta demostró al gobierno Clinton quién mandaba en Internet. Y resultó que no era EEUU.

Por aquellos tiempos los dinosaurios recorrían la tierra, ya se habían separado las redes militar y científica, había salido a bolsa Netscape y la Red era ya un activo económico de primer orden. Todavía no era la niña de los ojos de Wall Street, pero ya empezaba a notarse un cierto perfume de burbuja en el aire. Fue entonces cuando el Gobierno Clinton decidió dar un paso clave de la mano de su pomposamente conocido como 'Zar de Internet', Ira Magaziner.

En juego estaba el Domain Name System (DNS, sistema de nombres de dominio), las 'matrículas' de la Red: los nombres (como 20minutos.es) que nos evitan usar los números (como 194.140.12.196) que utilizan los ordenadores. El contrato por el que la empresa Network Solutions gestionaba este recurso de Internet caducaba en marzo de 1998, y durante 1997 se fueron desarrollando planes. Por un lado el gobierno EEUU, apoyado por su industria, quería cimentar su influencia en el futuro destino de la Red. Por el otro una heterogénea coalición internacional de la comunidad internauta quería a todos los gobiernos, incluido el estadounidense, lejos. Ambas posturas estaban enfrentadas. De un lado, la Red; de otro, el gobierno EEUU. El 30 de enero de 1998 el gobierno Clinton publica el 'Green Paper', su plan para la transición. El plan no es bien recibido.

Lo que ocurre a continuación es que la comunidad internauta demuestra su poder al gobierno estadounidense, y cambia las tornas del debate. Durante la primera semana de febrero, y a instancias de Jon Postel, venerado veterano de la Red, Internet cambia su modo de funcionar; ocho de los trece servidores de los que depende el DNS dejan de obtener sus datos del 'rootserver' A para obtenerlos en su lugar del 'rootserver' B. Pocos notan el sutil cambio técnico [pdf]. Pero es un cañonazo que se oye en Washington alto y claro. Con esa pequeña alteración la empresa Network Solutions, una contrata del gobierno EEUU, queda fuera de juego. Postel y sus amigos cortocircuitan al gobierno estadounidense, dejándolo apartado de las raíces de Internet. En pocas palabras, roban la Red.

El artículo completo en Retiario

miércoles, 30 de mayo de 2007

Surface de Microsoft

Es nuevo, y es de Microsoft. Es un nuevo concepto de interface de usuario. Está implementado en una pantalla horizontal en forma de mesa de un tamaño bastante grande. No tiene teclado ni ratón, ya que la pantalla es táctil... bueno, mucho mas que eso, es táctil multitoque, lo que quiere decir que podemos usar mas de un dedo a la vez para trabajar en ella. Un dedo, si. Está pensada para trabajar con nuestras manos. A mi me recuerda al interface táctil de "Minority Report".
Y no solo eso. Reconoce las cosas que pongamos en la pantalla, y si están preparadas para ello, interactúan con el ordenador. Por ejemplo, podemos arrastrar una foto al teléfono móvil que tenemos encima de la pantalla.
Naturalmente tiene una pega... el precio. Por ahora es de unos 10.000 $. Ya sabemos que estas cosas con el tiempo bajan, pero habrá que ver lo que tarda en tener un precio mas "adecuado".
Y otra cosa, la posición horizontal... a mi personalmente no me convence. Espero que saquen una versión orientable horizontal-vertical según los gustos del usuario y las necesidades del momento.
Pero como primera aproximación, me gusta, ya lo creo que sí.

Página de Surface Microsoft