viernes, 31 de julio de 2009

Futuro Salvaje - Dentro de 5 millones de años (3)



Futuro Salvaje - Dentro de 5 Millones de años Parte 3/6

En este primer episodio, han pasado 5 millones de años. La especie humana se ha extinguido y la Tierra está cubierta por hielos eternos. ¿Han encontrado los seres vivos una forma de sobrevivir en estas duras condiciones climáticas? Y si es así, ¿De qué manera? Descúbrelo en Futuro Salvaje dentro de 5 millones de años.

Futuro salvaje explora la evolución de nuestro mundo y sus criaturas en tres períodos diferentes del futuro: Dentro de 5, 100 y 200 millones de años.

Déjate maravillar por las espectaculares imágenes de un grupo de especies de futurística forma y un paisaje en constante cambio. Basándose en solidas teorías de la evolución y la biología proporcionadas por un grupo de eminentes científicos y utilizando las últimas técnicas de animación, Futuro Salvaje recrea un mundo del futuro.

jueves, 30 de julio de 2009

El mundo se calentará aún más en cinco años

El mundo se calentará aún más en cinco añosLa intensificación de la actividad solar en los próximos cinco años, acompañada de un cambio en las oscilaciones del Niño, harán que el aumento de temperaturas provocado por los gases de invernadero sea mucho más pronunciado a partir de ahora, según han concluido científicos estadounidenses en un estudio difundido por el diario británico The Guardian.

La investigación, que se publicará en Geophysical Research Letters, aporta una nueva explicación a algunas de las dudas en torno al cambio climático.

Los "escépticos del clima" se han valido en los últimos años de dos argumentos para defender su postura: por un lado, que el clima es variable por naturaleza debido a factores astronómicos, como los cambios en la actividad solar, y, por otro, que el mundo no sólo no se está calentando, sino que se está enfriando ligeramente.

Para el primer argumento, la comunidad científica ha respondido de forma bastante unánime. El clima, ciertamente variable por naturaleza y sujeto a factores astronómicos de carácter cíclico, se está enfrentando actualmente a un nuevo motor de cambio: los gases de efecto invernadero que emite la actividad humana.

En un sistema como el de la Tierra o el clima en el que todo tiene consecuencias, la liberación a la atmósfera de un carbono o un metano que llevaban enterrados decenas de millones de años añadiendo un "excedente" de gases que no pertenecen al ciclo actual también tiene su efecto. Ese superávit de determinados gases potencian el efecto invernadero natural de la atmósfera. Es decir, calientan la cúpula de aire que protege a la vida en este planeta.

Ésta es la teoría más ampliamente aceptada desde hace décadas (la correlación entre aumento de CO2 e incremento de temperaturas) entre los científicos, pese a lo cual no han faltado las críticas basadas en un enfriamiento de la Tierra en los últimos años.

Ahora, el nuevo estudio viene a esclarecer por qué puede haber, efectivamente, periodos más fríos dentro de una tendencia al calentamiento a largo plazo. Judith Lean, del Laboratorio de Investigación Naval de EEUU, y David Rind, del Instituto Goddard para Estudios Espaciales de la NASA, han analizado por primera vez el conjunto de cuatro factores que influyen en el clima: el nivel de actividad solar -que determina el calor emitido por el Sol-, el nivel de actividad volcánica, el fenómeno del Niño y la influencia antrópica.

Según la investigación citada por el rotativo británico, en los últimos siete años la Tierra ha experimentado una relativa estabilidad en las temperaturas debido principalmente a una baja intensidad tanto de la actividad solar como del Niño. Este escenario ha hecho que el calentamiento provocado por los gases de efecto invernadero haya pasado inadvertido.

Sin embargo, en los próximos cinco años estos dos fenómenos entrarán en un nuevo ciclo y se potenciarán. Las temperaturas podrían aumentar hasta un 150% más de lo previsto por el Panel Intergubernamental del Cambio Climático de Naciones Unidas.

Los científicos recuerdan cómo una mayor potencia del Niño hizo que el año 1998 fuese extremadamente caluroso, y advierten de que un episodio de mayor magnitud podría tener lugar en un futuro próximo.

elmundo.es

martes, 28 de julio de 2009

Bokodes: los códigos de barras del futuro

El Bokodes utiliza la luz para codificar la información. MITInvestigadores de Estados Unidos han diseñado un dispositivo que puede convertirse en la alternativa a los códigos de barras. Se trata de los Bokodes, como han sido bautizados, y puede llevar miles de veces más de información que las tradicionales líneas y ser leídos por la cámara de un teléfono móvil. Con sólo tres milímetros de diámetro, estas etiquetas podrían contener información codificada sobre la nutrición de los alimentos y su caducidad o incluso servir para crear nuevos videojuegos.

El trabajo, según informa la BBC, será presentado en una conferencia en Nueva Orleans la semana próxima. "Creemos que nuestra tecnología iniciará una nueva forma de etiquetar", ha señalado a la BBC Ankit Mohan, investigador del Instituto de Tecnología de Massachusetts (MIT), que está detrás del desarrollo de este sistema.

El Bokodes consiste en un LED (diodo emisor de luz), cubierto con una capa minúscula y una lente. La información se codifica gracias a la luz que brilla a través de la capa, que varía su intensidad dependiendo del ángulo desde el que es visto. «Es brillante u oscuro según cómo queremos codificar la información», afirma Mohan.

Los investigadores creen que el sistema tiene muchas ventajas sobre códigos de barras convencionales: sus etiquetas son más pequeñas, se pueden leer en diversos ángulos y, además, se descifran con la cámara de un teléfono móvil hasta a cuatro metros de distancia.

El Bokodes se puede utilizar en las industrias para no perder de vista objetos, pero también pueden ser usados en los supermercados. Por ejemplo, podían ser utilizados para codificar ofertas de alimentación. "Mírame, soy un dólar más barato", podría ser el mensaje que envíe un producto al consumidor.

También sería útil en las bibliotecas para localizar un libro con facilidad entre millares o para localizar información sobre restaurantes. Por ejemplo, un restaurante podría poner la información del menú de cada día dentro de esta etiqueta. Cuando un usuario cargara el Google Maps, esos datos serían exhibidos automáticamente al lado de la imagen del restaurante.

De momento, estos Bokodes son caros (3,5 euros la pieza), si bien los creadores creen que en el futuro no precisarán de energía: "Tenemos ya prototipos que son totalmente pasivos", asegura el experto, lo que los abaratará mucho.

No es la primera vez que las compañías buscan alternativas a los códigos de barras. En 2007, Microsoft lanzó sus códigos de barras de colores. La tecnología de la identificación de la radiofrecuencia (etiquetas electrónicas minúsculas que difunden la información codificada) fue otra de las propuestas. Aunque ahora tienen muchos usos, como en las reservas de libros en algunas bibliotecas, los pasaportes o billetes de transporte, estas últimas aún no han logrado desplazar a los códigos de barras tradicionales.

El futuro del paisaje mediterráneo tras los incendios forestales

El futuro del paisaje mediterráneo tras los incendios forestalesPaisajes arrasados por las llamas pueden convertirse en tan sólo unas décadas en bosques de encinas, pinos o castaños. Así lo afirma un equipo de investigadores que ha desarrollado un modelo matemático y cartográfico que permite visualizar la evolución de los paisajes mediterráneos considerando la influencia de los incendios forestales.

El estudio parte de un escenario original y predice la sucesión vegetal más probable según las variables introducidas, valorando parámetros como el grado de dispersión de las plantas, su distribución espacial y temporal y los recursos por los que compiten (sobre todo luz y agua).

Según los expertos, tras un fuego este tipo de ecosistemas evolucionan desde un pastizal a un matorral (con jaras, lavandas y genistas), después a un bosque de transición (con pinos, enebros y algunas encinas) y, finalmente, a un encinar, en el plazo de unos 100 años. Esta evolución puede modificarse dependiendo de diversos factores.

Los resultados señalan que en condiciones de aridez del terreno o ausencia de bellotas de encina, en 30 años una zona quemada puede llegar a ser un pinar. Por el contrario, si las condiciones hídricas y la naturaleza del suelo son favorables, el ecosistema podría evolucionar en menos tiempo hacia un bosque caducifolio, compuesto por castaños o robles melojos.

Esta investigación forma parte de un estudio más amplio sobre los cambios en la ocupación del suelo en áreas rurales, y se integrará con otros modelos para ayudar en la toma de decisiones sobre el uso de estos territorios.

Para realizar el estudio, los autores han analizado una Zona de Especial Protección para las Aves del sudoeste de Madrid, que se extiende por los encinares de los ríos Alberche y Cofio. "Hemos desarrollado un modelo para representar mediante mapas cómo se van sucediendo los distintos tipos de vegetación en un paisaje mediterráneo, incluyendo los incendios como elemento implícito en la dinámica de la vegetación mediterránea", explica Raúl Romero, investigador de la Universidad Rey Juan Carlos de Madrid y coautor del trabajo que se ha publicado en la revista Enviromental Modelling & Software.

"La intensidad y el número de incendios afectan directamente sobre la evolución y tipo de cubierta vegetal", indica Romero, que recuerda la gran influencia del hombre respecto a este y otros factores que afectan a las zonas mediterráneas.

SINC

El futuro tecnológico, en la Campus party

Campus Party 2009. Efe / Biel AliñoRobots que cocinan y pintan retratos, una especie de diadema que detecta las señales de las neuronas y permite mover objetos virtualmente o una pantalla táctil en tres dimensiones son algunas de las "piezas" del futuro tecnológico que se muestran estos días en la Campus Party.

"La idea era ir un paso más allá en el futuro de los juegos, de la robótica o del transporte y, sobre todo, traer aplicaciones muy interactivas, muy cercanas al usuario", explicó a la prensa Enrique Nimo, coordinador de contenidos internacionales en el espacio Campus Futuro, que permanecerá abierto al público toda la semana.

Nao, un robot doméstico con gestos y acciones muy similares a las de los humanos, es una de las estrellas de esta área de la cita tecnológica, que ayer se inauguró con un baile de este robot imitando a Michael Jackson.

Uno de sus diseñadores, Romain Danos, se mostró convencido de que este tipo de robots tendrá un uso generalizado "muy pronto" y avanzó que en un par de años ya estarán a la venta en España con un precio que rondará los 3.500 euros. Sus aplicaciones, explicó, irán desde labores de asistencia a colectivos con alguna discapacidad a entretenimiento en el hogar o ayuda en las tareas domésticas.

Al lado de Nao, Dabot y Chief Cook, dos "alter ego" del robot HOAP-3 de Fujitsu, muestran dotes culinarias y de pintura, que aprenden por imitación y en base a complejas estadísticas. En el capítulo de juegos se puede ver una especie de rompecabezas virtual, con tres pequeños cubos que el usuario debe mover para encontrar la salida por la habitación adecuada; un giroscopio de la Nasa adaptado para manejar unas naves o un bote de pintura en "spray" virtual para la consola Wii.

También acapara la atención de los visitantes, "Emotiv", un dispositivo en forma de diadema con 16 sensores que detectan las señales de las neuronas y permiten mover objetos de forma virtual sólo con pensarlo. Tan Le, una de las responsables de este producto, explicó que el aparato primero estudia cómo funciona cada cerebro y luego es capaz de detectar las señales que emiten las neuronas para trasmitirlas al ordenador y que se ejecute la acción, por ejemplo, mover una caja o hacerla desaparecer.

En el capítulo de transporte, la Campus ve el futuro en WheelSurf, una especie de motocicleta en forma de rueda que consume menos, y el de las pantallas, en un paso más en el mundo táctil con Impress, una en tres dimensiones que se hunde al tocarla. Para el responsable de estos contenidos, además de la interacción y de acercar una tecnología más humana, la clave de todo este espacio ha sido el fuerte vínculo con las universidades, detrás de muchos de estos proyectos.

EFE

lunes, 27 de julio de 2009

Aprovechar viejas minas para extraer calor

Aprovechar viejas minas para extraer calorLas galerías de las minas que están a punto de cerrar se pueden aprovechar para que los municipios del entorno obtengan energía geotérmica. Ésta es la conclusión de dos ingenieros de la Universidad de Oviedo, que este mes publican su investigación en la revista Renewable Energy. El método que han desarrollado permite estimar la cantidad de calor que podría aportar una galería.

"Una forma de aprovechamiento de la energía geotérmica de baja intensidad es convertir las galerías de las minas en calderas geotérmicas, que podrían facilitar calefacción y agua caliente a los vecinos del entorno", explica a SINC Rafael Rodríguez, de la Escuela Técnica Superior de Ingenieros de Minas de Oviedo.

Este tipo de energía, que apenas se aprovecha en España, se obtiene a partir del calor del interior de la Tierra.

El ingeniero, junto a su colega María Belarmina Díaz, ha desarrollado un método "semiempírico" (entre matemático y experimental) para calcular la cantidad de calor que podría proporcionar una galería de una mina que se va a abandonar, a partir de estudios realizados mientras todavía está activa.

"Con la mina en actividad se puede acceder fácilmente a las galerías para tomar datos sobre la ventilación o sobre las propiedades de las rocas; además se pueden realizar sondeos y diseñar mejor los circuitos, e incluso programar el cierre de algunos tramos para dedicarlos a la obtención de energía geotérmica", indica el ingeniero.

Una vez que se clausura la mina también se puede aprovechar la energía geotérmica, "pero ya no es posible modificar nada en ella ni obtener datos útiles para valorar y mejorar el sistema", añade.

El estudio contempla el aprovechamiento geotérmico de una galería tipo de dos kilómetros de longitud en la que, a una profundidad de 500 metros, la temperatura de la roca ronda los 30ºC.

Es el caso típico de muchas zonas mineras de Asturias, aunque también se puede aplicar a otras partes del mundo. Mediante tuberías, el agua podría entrar a 7º C y salir a 12º C, una ganancia suficiente para beneficiar a algún municipio localizado sobre la mina.

Rodríguez y Díaz destacan que la construcción de calderas geotérmicas en galerías de mina, además de permitir predecir su producción, funciona prácticamente como un sistema abierto de tuberías, "pero sin ningún riesgo de contaminación térmica al acuífero".

El uso de la energía geotérmica también permite reducir las emisiones de CO2 y es independiente de las condiciones climáticas (a diferencia de otras energías renovables como la solar o la eólica). Otras ventajas son que sus instalaciones utilizan recursos propios de un país, no requieren grandes extensiones de terreno, no contaminan el entorno próximo y están consideradas rentables a largo plazo.

La energía geotérmica se puede usar directamente en viviendas unifamiliares, urbanizaciones, piscinas, piscifactorías, naves industriales y otros edificios.

Sinc

Fuster analiza las claves en medicina cardiovascular para la próxima década

Valentin Fuster. EfeEl presidente de la Asociación Mundial de Cardiología, Valentín Fuster, ha analizado hoy en la Universidad Internacional Menéndez Pelayo (UIMP) las claves que permitirán seguir avanzando en la lucha contra las enfermedades cardiovasculares durante la próxima década.

Fuster, que estos días ofrece un curso magistral en la UIMP, ha destacado el papel que jugarán la genética, la regeneración de tejidos y la relación entre salud y economía en la medicina cardiovascular.

También se ha referido a la bioimagen, o imagen molecular, que permite estudiar qué ocurre en el miocardio durante un infarto desde un punto de vista molecular o cómo el organismo se defiende contra las enfermedades, de modo que en el futuro se podrán promover estos mecanismos de defensa.

Fuster ha señalado que la prevención es otro de los puntos fundamentales de cara al futuro y se ha lamentado de que no se esté previniendo una "epidemia cardiovascular" provocada por la obesidad que ya se da en niños, a la vez que ha apostado por fomentar la educación en hábitos que eviten los factores de riesgo.

El cardiólogo español está trabajando en cinco proyectos "hipótesis" -porque aún se desconoce qué respuesta tendrán- el primero con niños de 3 a 7 años, a los que se les enseña que "la salud es prioritaria" en su vida, de modo que cuando lleguen a adultos mantengan esta conducta.

La segunda de estas líneas de trabajo se está desarrollando en la Isla de Granada, en el Caribe, donde se estudia cómo reaccionan los individuos dentro de una población a través de la presión ejercida entre ellos mismos en cuestiones como dejar de fumar o reducir la obesidad.

Otro de esos proyectos se lleva a cabo en Ruanda, donde se está analizando cómo se utilizan los sistemas de infraestructuras para enfermedades contagiosas para educar a la población.

Según el cardiólogo, los países pobres tendrán que hacer frente a las enfermedades cardiovasculares como una "prioridad", pues consumen alimentos con mucha sal -que provoca hipertensión-, y con alto contenido de hidratos de carbono -lo que lleva a la obesidad y a la diabetes-, así como por la creciente presencia de la empresa tabacalera.

Del cuarto proyecto, la polipíldora -un único comprimido para prevenir enfermedades cardíacas que pretende sustituir las tres píldoras ahora vigentes- ha dicho que saldrá al mercado en un plazo de 12 a 18 meses y que abaratará significativamente el tratamiento.

El cardiólogo ha subrayado la importancia de la ley como medio de promover conductas preventivas en la población adulta, por ejemplo, con la prohibición de fumar en ciertas áreas o la obligatoriedad de tomarse la presión arterial.

Y ha recordado que aunque ahora se ha retrasado la edad de muerte por enfermedades cardíacas, ha aumentado el número de pacientes con estas dolencias.

Respecto al estrés, el médico ha afirmado que más que un factor de riesgo en sí, salvo en los casos agudos, funciona más como un elemento que "abre las puertas" a malos hábitos como el comer mal o la vida sedentaria por falta de tiempo.

Para Valentín Fuster, el presidente de Estados Unidos, Barack Obama, es "la persona ideal" para reformar el sistema sanitario de su país, cuestión que aunque "el sentido común la apoya, los intereses creados la hacen difícil" y no debe hacerse muy rápido.

EFE

domingo, 26 de julio de 2009

España lanzará en 2011 una cápsula para investigar el clima de Marte

Imagen enviada por la sonda Mars Express de la superficie de MarteEspaña, en colaboración con Finlandia y Rusia, lanzará en 2011 una cápsula para investigar las condiciones atmosféricas de la superficie de Marte y contribuir así a preparar los primeros vuelos tripulados al planeta rojo.

"Es un paso decisivo para facilitar en el futuro vuelos tripulados a Marte", ha explicado Héctor Guerrero, investigador del Instituto Nacional de Técnica Aeroespacial (INTA) y uno de los responsables españoles del proyecto "Mars MetNet Precursor Mission".

La cápsula, que se lanzará como carga secundaria de la misión rusa 'Phobos Sample Return' a finales de 2011, está previsto que llegue al planeta marciano un año después para situarse sobre su superficie.

Se trata, ha considerado el catedrático de la Universidad Complutense de Madrid Luis Vázquez, de una "misión complicada" porque "la atmósfera es tenue, cambia constantemente y los cálculos suelen fallar".

España, que se incorporó al programa en 2007, ha diseñado íntegramente varios de los instrumentos que la misión desplegará sobre Marte, como un magnetómetro, que permitirá muestrear el campo magnético terrestre, y un sensor de irradiancia solar, que medirá las regiones visible, ultravioleta e infrarroja.

Un enlace de comunicaciones ópticas inalámbricas y un sistema barredor con un sensor de polvo depositado completan la aportación española a este proyecto trilateral.

En total, son 135 gramos de carga útil tecnológica, que representan el 20% del peso de toda la instalación, y que servirán, por ejemplo, para investigar la concentración de ozono y vapor de agua en la atmósfera o realizar mediciones "in situ" del campo magnético.

Se espera que los datos obtenidos "arrojen luz" sobre la estructura y la composición internas de Marte, "inaccesibles" hasta ahora por las características del planeta rojo. Los datos serán enviados a las estaciones de espacio profundo de Robledo de Chavela (Madrid) y de Cebreros (Ávila).

Para el máximo responsable de la misión, Ari-Matti Harri, del Instituto Finés de Meteorología, se trata de una misión de "bajo coste" con un presupuesto de 30 millones de euros, de los que España ha aportado alrededor de cinco millones.

"Desde el descubrimiento de América siempre ha existido un hallazgo importante cada sesenta años", ha asegurado Vázquez, por lo que ha confiado en que el hombre llegue a Marte antes de 2030.

En este sentido, Guerrero ha asegurado que el planeta rojo, "que ya fascinaba a los egipcios", será "la solución" dentro de 500 ó 1.000 años "si en la Tierra nos va mal".

Cualquier viaje tripulado a Marte tendría que permanecer en el planeta rojo más de dos años, pues la Tierra, el Sol y Marte se ponen en oposición cada 26 meses y son "las ventanas para viajar", según Vázquez.

Con la experiencia del primer lanzamiento, los responsables del proyecto esperan enviar una segunda sonda, que llegaría a Marte en 2015, y sumar a "medio plazo" otras dieciséis cápsulas.

Para Vázquez, la investigación espacial en Marte es una "carrera de fondo", que animará la investigación, porque "la sociedad española, a diferencia de lo que sucede en otros países, aún no ve héroes en sus científicos".

El consorcio español está constituido por la Universidad Complutense y la Carlos III de Madrid, la Universidad de Sevilla, el Consejo Superior de Investigaciones Científicas (CSIC) y el INTA.

EFE

Futuro Salvaje - Dentro de 5 millones de años (2)



Futuro Salvaje - Dentro de 5 Millones de años Parte 2/6

En este primer episodio, han pasado 5 millones de años. La especie humana se ha extinguido y la Tierra está cubierta por hielos eternos. ¿Han encontrado los seres vivos una forma de sobrevivir en estas duras condiciones climáticas? Y si es así, ¿De qué manera? Descúbrelo en Futuro Salvaje dentro de 5 millones de años.

Futuro salvaje explora la evolución de nuestro mundo y sus criaturas en tres períodos diferentes del futuro: Dentro de 5, 100 y 200 millones de años.

Déjate maravillar por las espectaculares imágenes de un grupo de especies de futurística forma y un paisaje en constante cambio. Basándose en solidas teorías de la evolución y la biología proporcionadas por un grupo de eminentes científicos y utilizando las últimas técnicas de animación, Futuro Salvaje recrea un mundo del futuro.

sábado, 25 de julio de 2009

Secuenciar el genoma en España será en 2020 tan usual como una radiografía

El nuevo director general de la Fundación Genoma España, Rafael Camacho. EFEEl nuevo director general de la Fundación Genoma España, Rafael Camacho, ha asegurado que "llegará un momento, quizá mucho antes de 2020", en el que hacerse un análisis genético en la sanidad pública española, incluido la secuencia del genoma completo, será una práctica "tan habitual como una radiografía".

En la actualidad, en el Sistema Nacional de Salud, ya hay hospitales que tienen unidades de genética, entre ellos centros de Andalucía, Comunidad Valenciana, Madrid, País Vasco, Cantabria y Cataluña, ha señalado a EFE Camacho, quien ha recalcado que la genómica abre la puerta a la "medicina personalizada".

"No habrá un traje para todos", sino que a cada persona, por su perfil genético, se le podrá aplicar un tratamiento", según el director de esta Fundación, quien llegó al cargo este 1 de julio y para quien no hay más límite en la Ciencia que la propia autorregulación ética y la legislación vigente.

Para llegar a esta medicina personaliza, ha continuado, será necesario actualizar la formación de los facultativos en genética, o meter genetistas en los hospitales, y que los costes sean razonables.

En pocos años se ha conseguido dividir por mil el precio de la secuenciación del genoma humano.

De hecho, según Camacho, hay empresas estadounidenses preparadas para ofertar el mapa del genoma por mil dólares (unos 700 euros).

"Ahora, uno de los grandes retos es incorporar al Sistema Nacional de Salud los avances en medicina molecular", ha apuntado.

El que todos dispongamos de la secuencia del genoma supondría para los profesionales elegir mejor un tratamiento y ajustar su dosis, lo que tiene especial importancia en pacientes oncológicos.

Para enfermos con este tipo de patologías, los tratamientos son "muy agresivos" y la ventana terapéutica es "muy estrecha".

Esto significa, ha detallado, que si se da una dosis por debajo de la recomendada no tiene efecto, pero si la dosis es superior a la indicada, los efectos adversos y tóxicos "pueden llegar a ser casi peor".

La genómica es aquella parte de las ciencias biológicas que estudia el genoma de los organismos, la información genética contenida en la totalidad del ADN.

En medicina, el análisis genético permite detectar variaciones (mutaciones) que pueden ser el origen de enfermedades.

A esto se dedica principalmente la Fundación Genoma España, además de a la proteómica, que correlaciona las proteínas expresadas con los genes que las codifican.

Las aplicaciones de ambas son "amplísimas", ya que, además de para la prescripción individualizada de fármacos, se puede averiguar qué genes tienen relevancia en la aparición de determinadas enfermedades y establecer una mayor o menor predisposición a padecer una dolencia.

Es una ciencia relativamente moderna (la secuenciación completa del genoma humano terminó en 2001), que, además, se puede aplicar en agricultura, alimentación, industria y medio ambiente.

En cuanto al ser humano, se sabe que el genoma contiene unos 30.000 genes, y que tan sólo un 0,3 por ciento es lo que nos diferencia a unos y a otros, lo que provoca que no haya dos personas exactamente iguales.

Esta información, el mapa del genoma humano, es la que ya se conoce, ahora lo que se investiga es para qué sirve cada fragmento de información.

Camacho ha reconocido que todo lo relacionado con la genómica es sensible, por lo que hay que transmitir en su justo término lo que se hace para no crear falsas expectativas.

Para Camacho, España tiene "muchísima potencialidad" en este campo: en producción científica en ciencias de la vida es la cuarta de la UE.

Sin embargo, lo que hay que lograr es un nivel de excelencia parecido en cuanto a transferencia y aprovechamiento del conocimiento, principal reto de la Fundación.

Se trata de conseguir un aprovechamiento mayor de los resultados científicos y una mayor apertura a las empresas, ha concluido.

EFE

viernes, 24 de julio de 2009

¿Qué ocurriría si se extinguieran las abejas?

¿Qué ocurriría si se extinguieran las abejas?"Hasta hace poco, la investigación en biodiversidad se centraba exclusivamente en la riqueza de especies, olvidándose de las interacciones entre ellas o asumiendo que se producían de modo aleatorio, sin un patrón específico", explica Jordi Bascompte, investigador de la Estación Biológica de Doñana (CSIC) y principal autor del estudio publicado en el último número de Science.

Sin embargo, ahora es posible predecir la supervivencia de un ecosistema aplicando sistemas de redes complejas que hacen hincapié en las relaciones que tienen unas especies con otras. "El paradigma de red enfatiza las interacciones ecológicas entre especies, acentuando la importancia de su dependencia", añade.

Las redes se organizan en módulos o departamentos que interactúan entre sí para después identificar qué papel juega cada especie dentro del ecosistema: mientras algunas tienen poca importancia, otras están muy bien conectadas, actuando como un pegamento que mantiene juntas las redes y cuya extinción provocaría cambios en todo el sistema.

"Dadas las complejas redes de interdependencia que las relacionan, la extinción de una especie puede arrastrar a otras emparentadas evolutivamente con ella", enfatiza Bascompte. Así, cuando hay una avalancha de extinciones, las especies que desaparecen tienden a estar emparentadas filogenéticamente (las especies que ocupan posiciones similares en la red de interacciones tienden a estar próximas en el árbol evolutivo). Esto provoca que las cascadas de coextinciones reduzcan la biodiversidad taxonómica (número de géneros, familias, órdenes...) más rápido de lo esperado.

"En el plano más práctico, la aplicación del enfoque de redes a ecosistemas permite evaluar las consecuencias de las perturbaciones para la comunidad. Esto puede ser un primer paso hacia una ecología más predictiva que pueda enfrentarse al cambio global". Por ejemplo, cómo la sobrepesca afecta a la cadena trófica.

El modelo de red utiliza herramientas y conceptos de campos tan dispares como la física y la sociología. Según el investigador, hay mecanismos genéricos que subyacen en la formación de cualquier tipo de redes. De hecho, los modelos desarrollados por Bascompte y su equipo se han aplicado al sector de la economía para evaluar los riesgos financieros y o las relaciones cooperativas humanas.

jueves, 23 de julio de 2009

Viaje a Marte en 39 días

Viaje a Marte en 39 díasEl largo camino hasta Marte comienza a acortarse. El desarrollo de cohetes impulsados por motores de plasma, actualmente en fase de pruebas, permitirá reducir la duración de la travesía espacial de seis meses a sólo 39 días.

Un recorte tan sensible de esta aventura espacial significaría que los astronautas pasarían menos tiempo expuestos a radiación, además de minimizar la pérdida de masa ósea y muscular, así como las alteraciones circulatorias provocadas por largos periodos en condiciones de ingravidez.

El Motor de Magnetoplasma de Impulso Específico Variable (VASIMR por sus siglas en inglés) ha sido desarrollado por la empresa Ad Astra, dirigida por el ex astronauta Franklin Chang Díaz, veterano de siete misiones en la Estación Espacial, y cuenta con la colaboración de la NASA. El nuevo director de la agencia, Charles Boden, ha afirmado que éste es un ejemplo en la colaboración entre sector público y privado, así como un paso clave para conseguir llegar a Marte. En 2012 o 2013, está previsto que el motor realice una prueba en la Estación Espacial proporcionando impulsos para para mantenerla en su órbita.

Según explican los creadores de VASIMR, los cohetes propulsados por combustibles químicos consumen la mayor parte de sus reservas en el despegue, por lo que una vez en el espacio, las naves más que viajar, flotan. Los motores de plasma propulsan la nave acelerando átomos cargados electricamente (también llamados iones) a través de un campo magnético. Aunque en el momento del despegue producen un empuje mucho menor que los motores de combustible -por lo que no pueden salir de la orbita terrestre por sí mismos-, una vez se hallan en el espacio tienen impulso durante años, acelerando de manera progresiva hasta obtener más velocidad que los químicos.

Aplicaciones

Esta tecnología ya se ha utilizado en misiones de exploración que implican desplazamientos hasta áreas remotas del universo, como la sonda Dawn, enviada por la NASA para la exploración de los asteroides Vesta y Ceres, lo mismo que la nave japonesa Hayabusa que investigará Itowaka, otro cuerpo rocoso.

Entre sus aplicaciones inmediatas, estos motores podrían transportar carga hasta estaciones lunares, arrastrar satelites para mantenerlos en su órbita o impulsar naves que impacten contra asteroides para modificar su trayectoria. El modelo que incluirá la prueba en la Estación Espacial, funciona únicamente con energía solar, sin embargo un hipotético viaje a Marte requeriría un millar de veces más energía solar, por lo que tendría que llevar un reactor nuclear, algo que la Unión Soviética ya ensayó en los años 60 y 80.

elmundo.es

miércoles, 22 de julio de 2009

En el camino hacia los planetas habitables fuera del Sistema Solar

Ilustración de tres planetas extrasolares del tipo supertierra. ESOHace unos 15 años, la Astrofísica inició una pequeña revolución. Michel Mayor y Didier Queloz anunciaron, en 1995, el descubrimiento del primer planeta orbitando una estrella normal distinta a nuestro Sol. El estudio de estos llamados exoplanetas se ha convertido en una disciplina tremendamente activa y son muchos ya los astrónomos, y muy especialmente jóvenes investigadores, que se dedican a descubrir y comprender estos mundos lejanos. Gracias a ello, nuestros conocimientos han crecido espectacularmente en los últimos años.

Estamos en la fase más rápida de la curva de aprendizaje. Ahora sabemos que muchos de estos exoplanetas orbitan muy cerca de sus estrellas, a distancias tan próximas que la duración de su año es tan sólo de unos pocos días de nuestra Tierra y su temperatura es de hasta 2000 grados centígrados. Otros planetas tienen órbitas tan elípticas que pasan rozando a su estrella y después se alejan a enormes distancias. Algunos de ellos son tan livianos que flotarían en el agua... Un sinfín de misterios en los que la teoría camina dos pasos por detrás de la observación.

Todos estos descubrimientos, que sitúan hoy en día en unos 350 los exoplanetas conocidos, han sido mayormente posibles gracias al uso de técnicas indirectas. No es difícil imaginar que un planeta situado junto a su estrella, millones de veces más brillante, sea muy difícil de distinguir. Por ello el descubrimiento se basa en el efecto que un planeta tiene sobre la estrella a través de minúsculos cambios en su posición, velocidad o brillo. Un salto tecnológico a principios de la década de los noventa permitió detectar esta pequeña huella que deja el planeta y abrir la puerta a un nuevo horizonte de descubrimientos. Más recientemente, en noviembre de 2008, se dio otro salto de gigante al anunciarse el hallazgo de distintos exoplanetas a través de imágenes. Se trata de planetas gigantes en órbitas muy separadas de sus estrellas pero constituyen el primer paso hacia un sueño: ver los exoplanetas directamente para estudiarlos en detalle.

Vivimos ahora un momento esencial para la investigación en exoplanetas. Los progresos han sido tan formidables que tenemos al alcance de nuestras manos el objetivo anhelado de descubrir y caracterizar exoplanetas de tipo terrestre que sean habitables y, tal vez, habitados. Esto significa que se trate de planetas con una masa inferior a unas diez veces nuestra Tierra y situados en órbitas que permitan la existencia de agua líquida en la superficie, es decir, con una temperatura entre 0 y 100 grados centígrados. A pesar de parecer una utopía, no estamos muy lejos. Se conocen ya una decena de estos pequeños planetas de tipo terrestre e incluso uno de ellos podría orbitar dentro de la zona de habitabilidad de su estrella. Se trata de Gliese 581d, el primer planeta potencialmente habitable.

También se han hecho avances enormes en el campo de la caracterización aunque, por ahora, de exoplanetas del tipo denominado Júpiter caliente, es decir, planetas gigantes en órbitas muy próximas a sus estrellas. Usando medidas precisas de la disminución de brillo de la estrella cuando el planeta cruza por delante de su disco se han conseguido determinar la mayor parte de las propiedades del planeta, como su tamaño, temperatura y densidad, pero también los primeros indicios de moléculas en su atmósfera. Este es el caso del vapor de agua, metano o dióxido de carbono. Aquí cabe reflexionar por un instante: ¡Somos ya capaces de observar la composición química de la atmósfera un planeta a decenas o centenares de años luz de nosotros! Es algo que hace tan sólo unos años no hubiera parecido más que ciencia ficción.

El paso siguiente será reunir toda esta experiencia para iniciar la búsqueda de vida. Afortunadamente para nuestras expectativas, la presencia de vida en la superficie de un planeta puede alterar significativamente la composición química de su atmósfera. Ha sucedido en la Tierra y sigue ocurriendo hoy en día. Así, la mezcla de gases que componen nuestra atmósfera no se puede explicar sin la intervención de una biosfera. Este es el caso, por ejemplo, del oxígeno y el metano, que no pueden convivir sin destruirse mutuamente. En pocas palabras, ciertas combinaciones de compuestos se consideran biomarcadores y se pueden emplear para una detección remota (e indirecta) de vida.

El camino a seguir, pues, está claro: descubrir planetas terrestres situados en la zona habitable, caracterizarlos, estudiar la composición de sus atmósferas y buscar biomarcadores. Esta perspectiva tan alentadora ha cristalizado en la celebración de un congreso internacional en Barcelona (CosmoCaixa) durante los próximos días 14 al 18 de septiembre, que lleva por título Pathways towards habitable planets. Durante estos días se reunirán reconocidos expertos en el tema así como representantes de las principales agencias espaciales y observatorios desde tierra para discutir y establecer la hoja de ruta que debe llevarnos a la consecución de este objetivo. Sin duda, semejante empresa requerirá de una colaboración a nivel global. Si las expectativas se cumplen, en unas pocas décadas deberíamos poseer la tecnología para detectar planetas habitados más allá de nuestro Sistema Solar. Esperemos que el resultado sea positivo y que la Galaxia esté rebosante de vida. Una prueba más de nuestra pequeñez en el Universo.

Ignasi Ribas es Investigador del CSIC y del Instituto de Estudios Espaciales de Cataluña (IEEC).
ELPAIS.com

martes, 21 de julio de 2009

Los tsunamis amenazan el Pacífico

Los tsunamis amenazan el PacíficoEl riesgo de un gran tsunami en el océano Pacífico que golpearía la costa oeste de Norteamérica es mayor de lo que se pensaba hasta ahora, según un estudio difundido hoy por las Universidades de Durnham (Reino Unido) y de Utah (EEUU).

La investigación revela que los tsunamis del futuro podrían alcanzar una escala mayor de la alcanzada por las olas gigantes generadas por el terremoto que sacudió la península de Alaska en 1964, que alcanzó 9,2 grados en la escala de Richter.

Aquel terremoto, el segundo más intenso desde que hay registros históricos, dejó unos 130 muertos, la mayoría de ellos en Alaska, una cifra baja frente a la magnitud del fenómeno -generó olas que alcanzaron los 12,7 metros de altura- debido a que las zonas afectadas tienen una escasa densidad de población.

El estudio fue publicado hoy en la revista "Quaternary Science Reviews" y estuvo financiado por la National Science Foundation, la agencia espacial estadounidense NASA y el Servicio Geológico de EEUU.

Los investigadores revisaron la intensidad y el impacto de los terremotos habidos en la zona durante los últimos 2.000 años a través del estudio se muestras del subsuelo y de la secuencia de sedimentos a lo largo de la costa de Alaska.

La conclusión fue que los terremotos que periódicamente sacuden esa parte del mundo tienen el potencial para generar un proceso de ruptura de segmentos costeros y de suelo marino de una extensión mucho mayor de lo que hasta ahora se consideraba posible.

Junto al segmento de 800 kilómetros de longitud que sufrió la ruptura en 1964, se encuentra el segmento Yakataga, que tiene una longitud de 250 kilómetros y que si se rompiera de manera simultánea podría desencadenar una catástrofe sin precedentes.

El profesor Ian Shennan, de la Universidad de Durham, explicó que la investigación "sugiere que los terremotos previos fueron un 15 por ciento mayores en términos de área afectada que el de 1964".

"Esto es una evidencia histórica de una placa rompiéndose de manera generalizada y simultánea dentro de la región de Alaska, que tiene implicaciones significativas en lo que se refiere a un potencial de tsunami en el Golfo de Alaska y en la región del Pacífico en su conjunto", manifestó Shennan.

El investigador indicó que hay datos científicos que prueban que "dos grandes terremotos han sacudido Alaska en los últimos 1.500 años y que un terremoto más violento y un tsunami más destructivo que los del episodio de 1964 son posibles en el futuro".

Los tsunamis pueden ser generados por el rápido desplazamiento de agua cuando la superficie marina se rompe debido a los movimientos de la corteza que acompañan a los grandes terremotos, y en Alaska tienen un potencial especialmente destructivo debido a la poca profundidad de las aguas marinas frente a sus costas.

El profesor Ron Bruhn, de la Universidad de Utah, destacó que "si el gran terremoto sobre el que advierte nuestro estudio golpea a la región, el tamaño de un potencial tsunami puede ser significativamente mayor que el de 1964".

Bruhn explicó que "en el caso de un fenómeno de ruptura múltiple, la energía que desataría el tsunami sería mayor, pero también derivaría en una propagación del mismo en una distancia mayor".

Esto quiere decir que "aparte de las pequeñas comunidades que hay en la costa de Alaska, el efecto se haría notar en zonas más lejanas a la fuente del terremoto, como el sureste de Alaska, el estado canadiense de British Columbia y la costa oeste de los Estados Unidos, desde el estado de Washington hasta California".

EFE

El futuro es Marte, ¡en la Luna no hay vida!

La tripulación del Apolo XI, Buzz Aldrin, Michael Collins y Neil Armstrong, con el presidente Barak Obama. Foto: Reuters"La máxima es: a Marte y no de vuelta a la Luna", dijo ayer Edwin ´Buzz´ Aldrin, de 79 años, que el 20 de julio de 1969 se convirtió en el segundo hombre, después de Neil Amstrong, en pisar el satélite terrestre. "¡En la Luna no hay vida!", manifestó.

Además dijo no entender por qué se necesita una estación lunar tripulada para un vuelo a Marte, en una crítica a los planes de la NASA, que prevén volver a la Luna en 2020 para establecer una base permanente allí con el objetivo de volar a Marte antes de 2037. Así de lúcido se mostró ayer el astronauta, horas antes de ser recibido por el presidente de Estados Unidos junto con sus compañeros.

Barak Obama, que calificó a los astronautas de "genuinos héroes americanos", recordó ante ellos aquel día de verano, en el que con tan sólo siete años vivió la gesta. "Estaba sentado en el regazo de mi abuelo. Todo el mundo agitaba banderas norteamericanas, y saludaba en dirección a la Luna. Fue maravilloso".

El presidente señaló que Aldrin, Arsmtrong y Collins "inspiraron a una generación entera de norteamericanos a estudiar la ciencia, a investigar, y a descubrir". Asimismo, se comprometió a que "hacer posible que los niños que hoy miran hacia el espacio, y quieran ser los próximos en realizar una hazaña, puedan hacerlo".

A los astronautas que llegaron por primera vez a la Luna les gustaría que se diera un paso gigante hacia Marte, en particular, para enviar una tripulación. "Algunas veces pienso que estuve en el lugar equivocado. Marte era mi favorito cuando era niño y hoy todavía lo es", confesó Collins en la mañana de ayer, en la sede de la NASA en Washington.

Ayer noche tuvo lugar una gala que reunó en el Museo Nacional del Aire y del Espacio, en Washington, a unos 2.000 invitados que incluyen a la tripulación de la Apolo XI, el resto de los astronautas de misiones Apolo y tripulantes de los transbordadores espaciales actuales. El aniversario se celebra cuando precisamente uno de estos transbordadores, el Endeavour, se encuentra en la Estación Espacial Internacional.

Mientras, en España, la estación de Fresnedillas de la NASA, en contacto directo con el módulo lunar del Apolo XI, recibió hace cuarenta años la voz de Neil Amstrong cuando decía "El Águila ha aterrizado", una hazaña que ayer conmemora este municipio madrileño como el día en que la localidad "hizo historia". La estación fue una de las tres de tierra a través de las que se pudo mantener el contacto continuo con la nave Apolo XI. Durante ocho horas al día, sus decenas de trabajadores fueron responsables, tanto de los datos de localización de la nave como del estado de los astronautas a bordo.

miércoles, 15 de julio de 2009

Mundo Futuro

Homo SapiensSabemos que los hombres actuales, nosotros, y nuestros antepasados, somos unos recién llegados a este planeta: Compárese los 4-6 millones de años que hace que estamos aquí con los 240 m.a. que llevan los más antiguos mamíferos y los más de 600 m.a. que llevan los primeros animales. Pero nuestro "desembarco" en la Tierra no está trayendo nada positivo para la biosfera, para el resto de los seres vivos, que pueblan nuestro planeta...

Con nuestra "poderosa inteligencia", que no con nuestra sabiduría, estamos alterando de tal modo el medio ambiente, incluida la biosfera que es probable que seamos la causa directa de la próxima extinción de seres vivos... de hecho ya lo estamos siendo de muchos de ellos.

Probablemente, va a ser el hombre y su acción sobre el medio ambiente, el que va a determinar las características del futuro más inmediato de la biosfera. Dos rasgos fundamentales distinguen a la evolución humana de la del resto de seres vivos: una rápida y potente evolución cultural, que se suma a la más lenta y común con otros seres vivos, la evolución genética, y como consecuencia de esta cultura, una acción sobre el medio ambiente de gran envergadura, que ningún ser vivo había producido hasta la fecha; como consecuencia el hombre, puede influir sobre su propio proceso evolutivo, para bien o para mal.

En el año 1000 éramos menos de 500 millones, en el año 2000 llegamos a 6.000 millones y en 1930 no éramos más que 2.000 millones. El censo humano sobrepasará los 9.000 millones en el año 2050, si seguimos a este ritmo, en esta explosión demográfica. La población humana aumenta en unas 10 mil personas cada hora, 85 millones por año. Y para más agravio, la gran mayoría de los recursos son consumidos por una minoría en los países llamados desarrollados.

La agresiva acción sobre la biosfera terrestre, augura un próximo futuro no muy claro y un tanto tenebroso. Confiemos en la cordura y prudencia de la inteligencia humana, por su propio bien y el de los seres vivos que habitan nuestro querido planeta.

martes, 14 de julio de 2009

Concluye el simulacro de vuelo a Marte

Concluye el simulacro de vuelo a MarteLos seis participantes en el simulacro de un vuelo a Marte salieron hoy del módulo científico en el que permanecieron aislados del mundo exterior durante 105 días.

A las 14.00 hora de Moscú (10.00 GMT), los organizadores del experimento del Instituto de Problemas Biomédicos (IPBM) de la Academia de Ciencias de Rusia abrieron la compuerta similar a la de las naves espaciales, según la agencia Interfax.

El primero en abandonar el módulo fue el cosmonauta ruso Oleg Artémiev, de 37 años, al que siguió el resto del equipo, que fue recibido por los aplausos de periodistas, representantes de agencias espaciales de diversos países, médicos, científicos y colaboradores del IPBM.

El comandante de la tripulación, el ruso Serguéi Riazanski, de 34 años, informó sobre el final del experimento y a la pregunta de cómo se siente, respondió que "perfectamente", según la agencia oficial RIA-Nóvosti.

Integraron el equipo, además, otros dos rusos, el maestro de deportes Alexéi Shpákov (40) y el médico Alexéi Baránov (33 años), además del piloto francés de aviación civil Cyrille Fournier, de 40 años, y el ingeniero alemán Oliver Knickel, de 28.

Después de posar ante las cámaras, la tripulación se sometió a un examen médico y está previsto que esta misma tarde regresen a sus casas, aunque cada dos días deberán acudir al IPBM para pasar una revisión médica.

El experimento de 105 días, que comenzó el pasado 31 de marzo, estuvo dividido en tres partes: el vuelo de la nave en la órbita terrestre, el vuelo a Marte y la estancia del aparato en la órbita marciana.

Los seis voluntarios recibirán por su participación 15.000 euros, además de pluses por la realización con éxito de experimentos.

El simulacro fue ideado para poner a prueba la compatibilidad psicológica y la tolerancia de los integrantes de la tripulación y permitir a los científicos estudiar día a día los efectos del aislamiento de larga duración.

Sin embargo, no es más que la antesala del proyecto principal, el "Marte-500", que simulará un vuelo tripulado al Planeta Rojo, aunque con una nueva tripulación, y cuyo comienzo está previsto para finales de este año o principios de 2010.

Los futuros seis voluntarios permanecerán en el simulador un total de 520 días, el tiempo del viaje de ida y vuelta a Marte, más una estancia simulada de 30 días en la superficie marciana.

EFE

El clima futuro

Cambio climáticoPronosticar el clima del futuro es tarea delicada. Por un lado hay que considerar los cambios climáticos naturales y por otro la influencia humana sobre ellos.

El clima cambia de forma natural debido a varios fenómenos astronómicos y geológicos, como el lento cambio de la configuración de los continentes o pequeños cambios en la órbita de la Tierra y en la dirección de su eje de rotación. De esta forma, ya sabemos que en nuestro planeta alternan épocas cálidas con épocas de glaciación, que a su vez pueden estar divididas en periodos glaciares e interglaciares. En este sentido, el actual periodo interglaciar debe estar finalizando, ya que ha durado bastante más que la media que es de unos 12 mil años; un nuevo periodo glaciar nos alcanzará en un máximo de 4 mil años; después, la Tierra se introducirá en un largo periodo glaciar de unos 100 mil años. Pero estos eventos se ven a medio o a largo plazo.

A corto plazo, es más acuciante el efecto del calentamiento global que se avecina por los gases de efecto invernadero, provocados en gran medida por la acción humana.

Estos gases se han incrementado desde la etapa industrial humana de forma significativa: El CO2 ha aumentado un tercio, el metano se ha duplicado y el óxido nítrico ha crecido en un 15%. Si este incremento solamente se mantiene, se estima que en 100 años, la temperatura media terrestre aumentará entre 2 y 5 grados. Este incremento global de la temperatura traería importantes consecuencias: Incendios forestales con pérdida de la masa boscosa, con lo que ello significa; cambios en las precipitaciones con un clima más inestable, con temporales e inundaciones más frecuentes; aumento de la evaporación y por lo tanto de la aridez; fusión de los glaciares con la consiguiente elevación del nivel del mar, inundación de regiones costeras con sus ciudades; salinización de acuíferos costeros; muerte masiva de arrecifes coralinos...

Hay opiniones que indican que el problema no es tan alarmante: los bosques absorben el exceso de CO2 y sobre todo, el petróleo se habrá agotado antes del 2100 y los gases invernadero bajarán considerablemente. Pero es prudente no jugar con un factor tan delicado e interconectado con la biosfera como el clima y sería conveniente aminorar en lo posible la emisión humana de estos gases provenientes de las industrias y de los transportes. Una de las soluciones es el gradual reemplazo de las "energías sucias", basadas en los combustibles fósiles, por "energías limpias", no contaminantes, como la eólica, solar, hidroeléctrica, de biomasa, y sobre todo, investigar y rentabilizar otro tipo de energías, limpias y más potentes, como por ejemplo la de fusión, que es la energía de las estrellas, entre otras.

lunes, 13 de julio de 2009

Fin del Mundo: La muerte de la Tierra

Fin del Mundo: La muerte de la Tierra¿Tiene fin nuestro mundo, la Tierra? Podemos contestar con toda seguridad que sí. Nuestra estrella, el Sol, con una larga vida de aproximadamente 4.600 millones de año, en “apenas” otros 5.000 millones de años llegará a su fin, pero antes atrapará en su expansión a la Tierra, destruyendo así nuestro querido planeta.

El Sol es el elemento más importante en nuestro sistema solar. Es el objeto más grande y contiene aproximadamente el 98% de la masa total del sistema solar. Se requerirían ciento nueve Tierras para completar el disco solar, y su interior podría contener más de 1.3 millones de Tierras. La capa exterior visible del Sol se llama la fotosfera y tiene una temperatura de 6,000°C (11,000°F). Esta capa tiene una apariencia manchada debido a las turbulentas erupciones de energía en la superficie.

La energía solar se crea en el interior del Sol. Es aquí donde la temperatura (15.000.000° C; 27.000.000° F) y la presión (340 millares de veces la presión del aire en la Tierra al nivel del mar) son tan intensas que se llevan a cabo las reacciones nucleares. Éstas reacciones causan núcleos de cuatro protones ó hidrógeno para fundirse juntos y formar una partícula alfa ó núcleo de helio. La partícula alfa tiene cerca de .7 por ciento menos masa que los cuatro protones. La diferencia en la masa es expulsada como energía y es llevada a la superficie del Sol, a través de un proceso conocido como convección, donde se liberan luz y calor. La energía generada en el centro del Sol tarda un millón de años para alcanzar la superficie solar. Cada segundo se convierten 700 millones de toneladas de hidrógeno en cenizas de helio. En el proceso se liberan 5 millones de toneladas de energía pura; por lo cual, el Sol cada vez se vuelve más ligero.

La estabilidad del Sol como estrella se consigue por el equilibrio entre las fuerzas interiores que tienden a expandirla y las fuerzas de gravitación que tienden a comprimirla.

Cuando, en un futuro, el hidrógeno del Sol comience a escasear (cuando se haya perdido alrededor del 10% del que posee), entonces, las fuerzas de gravitación ganarán la partida a las fuerzas interiores y el Sol se colapsará y empezará a morir.

En ese momento, el Sol empezará hincharse en capas huecas y rojizas de hidrógeno mientras su núcleo se va comprimiendo cada vez más. Alcanzarán un tamaño cada vez mayor, hasta el punto que engullirá los planetas Mercurio, Venus, la Tierra, convirtiéndose en una estrella gigante roja, y acabará lanzando esas capas de hidrógeno rojizo al vacío interestelar, con lo que quedará solamente el núcleo blanco, pesado, caliente y luminoso en su última etapa moribunda, convertida en una enana blanca del tamaño que hoy puede tener la Tierra.

Y las capas de hidrógeno que el Sol lanza al espacio interestelar en su época de gigante roja quedan flotando a merced de las fuerzas de gravitación que tienden a aplastarlas, comprimirlas y calentarlas, hasta que, llegado un momento, cuando se alcancen temperaturas del orden de un millón de grados kelvin y presiones de cientos de miles de atmósferas, entonces puede saltar la chispa y comenzar a surgir una nueva estrella, donde las fuerzas de fusión del hidrógeno equilibrarían de nuevo a la gravitación.

¿Qué futuro le espera a la especie humana? ¿Será en definitiva aniquilada cuando el Sol inicie la evolución hacia su fin, dentro de unos 5.000 millones de años? La civilización humana tiene sólo unos miles de años sobre el planeta Tierra; es aún muy joven comparada con todo lo que aún le falta por vivir al amparo del Sol y ha demostrado ya una gran capacidad de desarrollo. ¿Quién puede predecir lo que serán las civilizaciones terrestres dentro de 5.000 millones de años? Pero si hemos de guiarnos por la historia, podemos esperar que el hombre encontrará la manera de preservar su especie, de salvar su herencia cultural y transportarla al futuro.

Los viajes espaciales son ya una realidad y aunque aún estamos lejos de poder colonizar otros mundos, aunque aún no conocemos otros mundos hospitalarios a los que poder emigrar, esto no se ve ya muy remoto. 5.000 millones de años son tiempo de sobra para resolver los problemas que en la actualidad ya están planteados. El instinto de supervivencia, la utilización racional de su inteligencia y la conciencia han hecho del hombre la especie más empeñada y más capaz de sobrevivir en un universo cambiante y podemos abrigar grandes esperanzas de que lo logrará.

La nanotecnología cambiará en 10 años la vida cotidiana

La nanotecnología cambiará en 10 años la vida cotidianaLa nanotecnología revolucionará en diez años la vida cotidiana de forma similar a lo que supuso la electricidad, la máquina de vapor o los ordenadores personales, según un estudio de la Fundació Catalana per a la Recerca i la Innovación.

El trabajo asegura que tratamientos, implantes y aparatos quirúrgicos muy mejorados, partículas capaces de suministrar fármacos directamente a los tumores, materiales más resistentes para la construcción o laboratorios en chip para hacer autodiagnósticos en casa son algunos de los productos de consumo que ya son una realidad y que usa la nanotecnología.

También está presente en pantallas de vídeo flexibles, cosméticos, circuitos integrados en la ropa, raquetas de tenis, calcetines y dentífricos, y en más de 800 productos registrados de nanotecnología fabricados por 420 empresas de 21 países.

El trabajo pretende concienciar sobre la importancia que tiene para el futuro este fenómeno tecnológico para que los políticos tengan en cuenta su transcendencia y diseñen las políticas necesarias para el desarrollo tecnológico en la industria.

Se llama nanotecnología a las tecnologías y aplicaciones que usan el comportamiento peculiar que tiene la materia cuando se encuentra en estructuras muy pequeñas, a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas.

A estas escalas, las leyes clásicas de la física ceden el paso a las de la física cuántica y se pueden obtener nuevos materiales con propiedades muy diferentes de las que presentan en su forma "normal" macroscópica.

Así, los cambios producidos afectan a características como por ejemplo el color, la conductividad, la reactividad y la resistencia, y estos cambios, lejos de ser futurología, ya tienen aplicaciones generales en prácticamente todos los campos.

También se indica en este trabajo que el motor inicial de los adelantos en la nanotecnología ha sido promovido, hasta ahora, por la financiación pública, que continúa teniendo un papel fundamental, aunque cada vez se incorpora más lo privado.

La Unión Europea encabeza la inversión pública mundial en el sector, con más de 2.000 millones de dólares anuales, seguida por Estados Unidos, con 1.700 millones de dólares; Japón con 1.000 millones, y el resto del mundo, con 700 millones.

Desde ese organismo se asegura que en España ha habido un fuerte crecimiento en investigación y desarrollo relacionado con las nanotecnologías en la última década, ya que de menos de cien científicos que se dedicaban a este campo en el años 2000 se ha pasado a más de mil ubicados en distintos centros investigadores.

Se denuncia en este informe que, sin embargo, a pesar de este crecimiento, la inversión en España es de 1,2 euros por persona y año, cantidad muy inferior a la media de la UE, cifrada en 4 euros.

EFE

La caza furtiva amenaza la supervivencia del rinoceronte

Un rinoceronte indio en cautividad junto a su cuidador. AFPGrupos conservacionistas de todo el mundo han alertado de que los cazadores furtivos están llevando la población de rinocerontes en África y Asia hacia la extinción, debido a la demanda que el cuerno de este animal tiene en las medicinas tradicionales.

En un informe presentado en Ginebra, han afirmado que las matanzas ilegales de estos animales amenazados están creciendo deprisa, alcanzando sus niveles más altos en 15 años, impulsados por la intensificación de las actividades de bandas criminales asiáticas y la creciente demanda de cuernos.

"El mercado negro de cuernos de rinoceronte en Asia está alimentando las matanzas, y cada vez existen más pruebas de la participación de ciudadanos vietnamitas, chinos y tailandeses en su obtención y transporte", declara el informe.

"Los rinocerontes se hallan en una situación desesperada", afirmó Susan Lieberman, de WWF-International, organización impulsora del informe en colaboración con la Unión Internacional para la Conservación de la Naturaleza (IUCN).

En el mismo informe, presentado en una reunión de Naciones Unidas, impulsada por el convenio CITES (Convención sobre el comercio de especies en Peligro en la Flora y Fauna Silvestre), que trabaja para prevenir el tráfico de especies protegidas, afirmó que Sudáfrica y Zimbawe estaban registrando un aumento particularmente pronunciado de caza furtiva.

Mientras que entre 2000 y 2005, un total de tres rinocerontes se estima que fueron cazados ilegalmente cada mes en África, en la actualidad se está matando a una media de 12 (de entre una población de 18.000) sólo en estas dos naciones africanas.

En la India, 10 de estos animales han muerto a manos de furtivos desde el pasado enero, además de otros siete en Nepal, cuando la población en ambos países es de sólo 2.400 ejemplares.

Supuestos valores medicinales

En muchos países asiáticos, el cuerno de rinoceronte está considerado como un ingrediente vital en curas tradicionales para multitud de enfermedades, así como para la impotencia masculina, aunque los especialistas en medicina hayan afirmado que no tiene poderes curativos.

El comercio de cualquier órgano de los rinocerontes está prohibido por el CITES. Sin embargo, Susan Lieberman afirma que este aumento en las matanzas suponen "la peor caza furtiva de rinocerontes durante muchos años" y representa un riesgo mortal para la supervivencia de esta especie.

Es hora de que los gobiernos "desmantelen a los elementos del crimen organizado responsables de este comercia, y aumentar ampliamente la ayuda a los países en los que habitan los rinocerontes en sus esfuerzos para aplicar las leyes", añadió Lieberman.

Steve Broad, que lidera la red TRAFFIC que colabora con WWF y IUCN para controlar el comercio de especies protegidas, señaló que la falta de cumplimiento de la ley y el bajo nivel de procesamientos y arrestos de furtivos está empeorando la situación. "Los crecientes intentos de los cazadores de obtener sus cuernos está siendo demasiado para la población de rinocerontes, y algunas poblaciones están declinando de manera drástica", declaró.

Reuters

La evolución de las especies puede dar resultados en menos de diez años

Poecilia reticulata. UC Riverside¿Cuán rápido puede la evolución introducir cambios detectables en las especies? Lo bastante como para que tales cambios sean perceptibles en menos de una década, según un nuevo estudio sobre unos peces, dirigido por la bióloga Swanne Gordon, de la Universidad de California en Riverside.

Gordon y sus colegas centraron sus observaciones y análisis en el Poecilia reticulata, un pez pequeño de agua dulce que los biólogos han estudiado durante mucho tiempo.

Los autores del estudio trabajaron con una población originaria del río Yarra, Trinidad.

Introdujeron un grupo de estos peces en el cercano río Damier, concretamente en una sección ubicada por encima de una cascada que servía de barrera para aislar de ellos a todos los posibles depredadores.

Otro grupo de peces Poecilia reticulata y sus descendientes colonizaron la parte más baja del río, por debajo de la barrera que constituía la cascada. En esa zona baja sí estaban los depredadores naturales.

Ocho años después (menos de 30 generaciones de Poecilia reticulata), los investigadores han descubierto que los peces en la zona poblada por escasos depredadores, la situada por encima de la cascada, se habían adaptado a su nuevo hábitat al producir un número menor de crías, pero con mayor tamaño, en cada ciclo reproductor.

En cambio, esta adaptación no apareció en los peces que colonizaron el entorno con más depredadores bajo la cascada.

La conclusión, tal como señala Gordon, parece evidente:

Las hembras sometidas a una gran actividad de los depredadores, invierten más recursos en su ciclo reproductor actual, porque existe una alta tasa de mortalidad y, probablemente, ya no tendrían otra oportunidad de reproducirse.

Por su parte, las hembras mucho menos asediadas por los depredadores producen embriones de mayor tamaño, porque las crías más grandes son más competitivas en los entornos con recursos limitados, típicos de los sitios con pocos depredadores. Además, la disminución de la cantidad de embriones no se debe sólo al mayor tamaño de los mismos, sino también a que las hembras invierten menos recursos en la reproducción actual, puesto que cuentan con mejores expectativas de seguir viviendo y, consecuentemente, de culminar con éxito otros ciclos de reproducción.

El Solar Dynamics Observatory está en Florida

SDO. Foto: NASA / Goddard Space Flight Center Conceptual Image LabEl Solar Dynamics Observatory (SDO), una de las próximas misiones científicas de la NASA, llegó el 9 de julio a Florida para ser preparado para el lanzamiento. Su despegue está previsto para el mes de noviembre, cuando un cohete Atlas-V lo enviará al espacio.

El SDO está pensado para medir y fotografiar el Sol durante unos cinco años, lo que permitirá estudiar su actividad, incluyendo las protuberancias y las eyecciones de masa coronal, que tanto afectan al “tiempo interplanetario”.

Los millones de toneladas de material solar y de partículas cargadas que son enviadas al espacio alcanzan la Tierra y pueden perjudicar el funcionamiento de sistemas de navegación, satélites, redes eléctricas, etc.

El SDO medirá los cambios del campo magnético solar y enviará 1,5 terabytes de información diaria a nuestro planeta. Durante los próximos meses, el satélite será sometido a pruebas de vibración y de otro tipo para certificar que podrá resistir sin problemas el lanzamiento.

NASA SDO

Cómo regular el turismo de células madre

Vista microscópica de una célula madre embrionaria. Foto: ReutersLos impresionantes avances en el campo de las células madre han permitido a los investigadores centrarse en muy poco tiempo en resolver la cuestión de cómo pasar de las pruebas de laboratorio a los ensayos con animales y, más adelante, con humanos. Sin embargo, este contexto ha generado un problema que la comunidad científica no sabe bien cómo resolver: el turismo médico.

Algunas terapias con células madre, como algunos tratamientos cutáneos u oculares, están mostrando eficacia dentro de ensayos clínicos multicéntricos. Otras, sólo han demostrado cierta eficacia en pequeños estudios y muchas apenas ha superado los exámenes del laboratorio. Esta circunstancia no reprime, sin embargo, el instinto lucrativo de algunos que no dudan en ofrecer curas milagrosas gracias a las células madre de dudosa eficacia.

"El problema es que hay muchos pacientes que están desesperados, que no tienen otra fuente de tratamiento, que deciden correr el riesgo de acudir a estas clínicas", ha explicado Deepak Srivastava, director del Instituto Gladstone de Enfermedad Cardiovascular, durante una conferencia de prensa ofrecida por varios expertos en la materia durante la reunión anual de la Sociedad Internacional de Investigación con Células Madre (ISSCR) celebrada estos días en Barcelona.

El turismo de células madre "nos preocupa mucho", ha expresado Edwin M. Horwitz, del Hospital Infantil de Filadelfia (Estados Unidos). "Por eso nos comprometemos a evitarlo y nos preguntamos qué podemos hacer para proteger a los pacientes".

Ahora bien, ¿quién le pone puertas al campo? Existen varios problemas a la hora de controlar o regular este tipo de tratamientos. En primer lugar, los expertos desconocen la envergadura del fenómeno del turismo con células madre. Algunas revistas médicas han publicado con cuentagotas casos en los que un paciente ha sido víctima de un engaño y ha recibido una terapia inocua o, en el peor de los casos, nociva. Pero el volumen de información es escaso y poco fiable.

Los especialistas sólo reciben información de forma anecdótica de algunos de sus pacientes, no es posible realizar seguimiento alguno de aquellos que deciden someterse a estas terapias y las clínicas que los ofrecen no establecen retroalimentación, ni publican estadísticas. En ausencia de estos datos, es difícil tomar medidas, sentenciaban los expertos.

Posibles soluciones

Por otro lado, existe cierta confusión acerca de quién debe regular la investigación con células madre y cómo debe afrontar este fenómeno del turismo. "Las autoridades competentes no saben cómo tratar el problema. Los países no saben cómo avanzar en su regulación", explica Anna Veiga, del Centro de Medicina Regenerativa de Barcelona. "Lo más importante –añade- es clarificar la situación".

Los especialistas reunidos han coincidido en la dificultad de hacer desaparecer el turismo. Ni la ISSCR tiene competencia mundial para regularlo, ni la legislación de todos los países es la misma. El fondo de la cuestión, apuntan, no es una negativa categórica sino proporcionar a los pacientes la información y las herramientas necesarias para que ellos puedan tomar una buena decisión.

A través de guías clínicas, foros en los que cada individuo pueda referir sus experiencias, establecer preguntas básicas para hacer antes de someterse a una terapia de estas características... Pero también, "debemos avanzar rápidamente para poder ofrecer opciones terapéuticas a un mayor número de pacientes". Así, menos personas optarían por prácticas no homologadas.

CRISTINA DE MARTOS / elmundo.es SALUD

Imágenes cerebrales para permitir el diagnóstico diferencial de las demencias

Imágenes cerebrales para permitir el diagnóstico diferencial de las demencias. Europa PressUn método con imágenes cerebrales podría permitir el diagnóstico diferencial de las demencias, según un estudio de la Clínica Mayo en Rochester que se ha hecho público durante la Conferencia Internacional de la Asociación del Alzheimer que se celebra estos días en Viena (Austria).

El estudio podría ayudar en un futuro a los médicos a diagnosticar de forma diferenciada los tres trastornos neurodegenerativos más comunes en la vida de los pacientes.

Los investigadores desarrollaron un marco de actuación basándose en diagnósticos diferenciales de imágenes de resonancia magnética (IRM) de tres trastornos neurodegenerativos comunes: la enfermedad de Alzheimer, la degeneración lobular frontotemporal y la enfermedad de los cuerpos de Lewy utilizando IRM estructural.

En la actualidad, el examen del cerebro en la autopsia es la única vía para confirmar con certeza que un paciente tenía una forma específica de demencia. Este nuevo marco de trabajo, denominado 'Índice de Anormalidad Estructural' o STAND-Map según sus siglas en inglés, podría ayudar a diagnosticar el tipo de demencia en vida de los pacientes.

Según los investigadores, si cada trastorno neurodegenerativo puede ser asociado con un patrón único de atrofia específica en la IRM, sería posible diagnosticar de forma diferencial a los nuevos pacientes.

El estudio examinó a 90 pacientes de la base de datos de la Clínica Mayo que tenían confirmación de una única demencia y que pasaron por una IRM en el momento de su diagnóstico clínico. Los investigadores emplearon el STAN-Map y predijeron un diagnóstico patológico exacto entre el 75 y el 80 por ciento de las ocasiones.

Según explica Prahanthi Vemuri, director del estudio, "el STAND-Map podría tener un gran potencial para el diagnóstico precoz de los pacientes con demencia. El siguiente paso sería evaluar este marco de trabajo en una población mayor para ver si podemos replicar los resultados y mejorar el nivel de eficacia conseguido en este estudio de prueba. A su vez, esto podría conducir a mejores opciones de tratamiento para los pacientes con demencia".

Europa Press

La NASA desarrolla tecnología para generar energía en la Luna

Concepto artístico del Sistema de Energía por Fisión en Superficie insertado en regolito lunar. NASACientíficos de la NASA desarrollan tecnología de punta para generar energía en la Luna basándose en un invento del siglo 19.

¿Alguna vez se ha preguntado cómo prepararía su taza de café por la mañana si viviera en otro planeta o, tal vez, en la Luna? La bebida humeante sería obligatoria en una fría mañana lunar.

Pero con escasa luz solar, sin carbón o madera para quemar, y sin agua corriente para generar energía hidroeléctrica, ¿cómo podríamos preparar una taza de café, y mucho menos el desayuno, o calentar la casa o alimentar los equipos de soporte y las herramientas que se necesitan para vivir y trabajar allí?

La NASA, mientras planea un futuro puesto en la Luna, ha estado haciendo estas preguntas recientemente.

Hay más de una manera de generar energía en la Luna. La Energía por Fisión en Superficie (Fission Surface Power ó FSP, en idioma inglés) es una de las opciones que la NASA está considerando. Si este método es escogido, una máquina inventada a comienzos de 1800 por los hermanos escoceses Robert y James Stirling podría ayudar para que esto se logre.

Los hermanos Stirling estaban tan orgullosos de su invento que le pusieron su nombre —y con justa razón. Con el tiempo, la máquina de Stirling —que podría haber sido una pequeña máquina, confiable y eficiente— ha incrementado su reputación aquí en la Tierra y, algún día tal vez, demostrará su valor en la Luna.

"Quienes habiten un puesto en la Luna van a necesitar una manera segura y eficiente de generar luz, calor y electricidad", dice Mike Houts, del Centro Marshall para Vuelos Espaciales, de la NASA. "La máquina de Stirling, digna de confianza, tiene las características adecuadas. No solamente es confiable y eficiente, sino que además es limpia y versátil".

La NASA ha unido sus esfuerzos con el Departamento de Energía de Estados Unidos con el propósito de desarrollar la tecnología de Energía por Fisión en Superficie para producir calor y alimentar con él la máquina de Stirling que, a su vez, convertiría esa energía calórica en electricidad para que pueda ser usada por los exploradores lunares.

No queda aún claro si este tipo de sistema de generación de energía será adoptado por la NASA, pero realmente tiene cualidades muy atractivas. Houts explica: "Una ventaja clave de este sistema es que no necesitaría luz solar para funcionar. Un sistema FSP podría ser usado para proveer energía a cualquier hora, en cualquier lugar, en la superficie de la Luna o de Marte. Podría ser usado en los polos y lejos de los polos, podría sobrevivir a una fría noche lunar y trabajaría adecuadamente en lugares como cráteres profundos que siempre están en tinieblas. Ni siquiera una de esas arremolinadas tormentas de polvo marcianas que tapan la luz del Sol podría detener su funcionamiento".

La máquina que planea la NASA solamente necesitaría producir alrededor de 40 kilovatios de potencia, o menos —justo lo necesario para alimentar un puesto en la Luna.

"Este nivel de potencia es alto para los estándares espaciales actuales, pero es extremadamente bajo para los estándares terrestres", dice Houts. "Es alrededor de 1/20.000 de lo que un reactor típico puede producir en la Tierra. En la Luna, necesitaríamos solamente un reactor pequeño —la porción abastecida con combustible mediría apenas 25 cm por 45 cm (10 pulgadas por 1,5 pies de largo)".

Podría proveer más energía con menos masa que otros sistemas de generación de energía. El sistema completo, un radiador montado sobre una máquina de Stirling, que a su vez está montada sobre un reactor, podría guardarse en un espacio pequeño dentro de un vehículo de alunizaje.

Antes de desarrollar el sistema final, Houts y su equipo están ahora poniéndolo a prueba con energía no-nuclear para llevar a cabo las pruebas de concepto.

"Estamos haciendo pruebas en un vacío térmico para aprender cómo hacer funcionar y controlar el sistema en la Luna", dice Houts. "Estamos usando calentadores de resistencia para simular el calor nuclear. Las resistencias eléctricas producen calor".

Después de que la prueba del sistema demuestre la viabilidad del concepto, el equipo podría recibir instrucciones de construir el "verdadero sistema", esta vez basándose fuertemente en la experiencia con reactores estadounidenses y de otros países.

"Estaría hecho de acero inoxidable y funcionaría con dióxido de uranio. Esta combinación ha sido usada en reactores terrestres alrededor del mundo, así que los científicos e ingenieros están acostumbrados a manejarla".

La unidad no estaría activa durante el lanzamiento, pero sería "encendida" una vez que estuviera instalada en la superficie de la Luna, donde estaría rodeada por un escudo para prevenir cualquier daño que pudiese causar la radiación emitida por el dispositivo.

"Sería muy seguro", dice Houts. "Y la belleza de este sistema es que sería prácticamente autoregulable".

Así es como funcionaría: Dentro del reactor, hay un manojo de pequeños tubos llenos de uranio. En la parte exterior del reactor hay tambores de control —un lado de cada tambor refleja neutrones y el otro lado los absorbe, otorgando así una manera de controlar la tasa a la cual se reflejan los neutrones que escapan del núcleo del reactor. Para encender la unidad, se enciende el lado absorbente de cada tambor de control, lejos del núcleo del reactor, de modo que el material reflectante mira hacia adentro y envía a los neutrones que escapan de regreso al núcleo. Esto da como resultado un incremento en la cantidad de neutrones disponibles, lo cual permite que se genere una reacción en cadena autosustentable, que produce calor.

Un refrigerante (que está formado por una mezcla de sodio y potasio)* fluye a través de los espacios entre los tubos, recoge el calor térmico producido por el uranio en reacción y transfiere el calor al motor de Stirling. Este motor hace entonces su magia** para generar electricidad. Mientras tanto, el refrigerante, que se ha "liberado" de una parte de su cargamento (el calor) para enviarlo al motor de Stirling, circula de regreso al núcleo del reactor, donde recoge el calor nuevamente y está listo para repetir el ciclo entero.

El sistema usaría solamente una pequeña cantidad de combustible —1 kilogramo de uranio cada 15 años —y aún tendría suficiente reactividad como para funcionar durante décadas.

"Le damos una vida útil de 8 años, sin embargo, porque algo más podría fallar antes de que se acabe el combustible".

Después de apagarlo, la radiación emitida por el sistema disminuiría rápidamente. Un sistema de reemplazo podría ser fácilmente reinstalado en el mismo sitio.

Ciencia@NASA

Futuro Salvaje - Dentro de 5 millones de años



En este primer episodio, han pasado 5 millones de años. La especie humana se ha extinguido y la tierra está cubierta por hielos eternos. ¿Han encontrado los seres vivos una forma de sobrevivir en estas duras condiciones climáticas? Y si es así, ¿De qué manera? Descúbrelo en Futuro Salvaje dentro de 5 millones de años.

Futuro salvaje explora la evolución de nuestro mundo y sus criaturas en tres periodos diferentes del futuro: Dentro de 5, 100 y 200 millones de años.

Déjate maravillar por las espectaculares imágenes de un grupo de especies de futurística forma y un paisaje en constante cambio. Basándose en sólidas teorías de la evolución y la biología proporcionadas por un grupo de eminentes científicos y utilizando las últimas técnicas de animación, Futuro Salvaje recrea un mundo del futuro.

El fantoma regresa y tiene una gran historia para contar

Matroshka adentro y afuera de su poncho blanco, que utiliza para viajar. NASA Matroshka regresa a la Tierra y ha sido elegida como la desafortunada voluntaria para experimentar la explosión de una llamarada solar gigante.

Se trata de un torso que tiene forma humana y que carece de brazos y piernas; es un maniquí que pareciera estar envuelto con las telas de una momia. Los científicos de la Agencia Espacial Europea (ESA, en idioma inglés) lo llaman Matroshka y, al igual que su contraparte de la NASA, Fred, este maniquí es un intrépido viajero espacial. Ahora que ha permanecido cuatro meses en la Estación Espacial Internacional, los científicos están aprendiendo sobre la radiación espacial a la que Matroshka estuvo expuesta.

Las lecciones aprendidas a través de Fred y de Matroshka poseen implicancias importantes para los planes de la NASA relacionados con montar una estación habitada en la Luna, y finalmente el envío de personas a Marte. Proteger a los astronautas de los efectos dañinos de la radiación espacial será un reto crítico en estas misiones de larga duración. Para diseñar trajes espaciales, vehículos y estructuras habitables con suficiente material aislante y mantener a los astronautas a salvo, los científicos de misión necesitan saber cuánta radiación -y de qué tipo- absorben realmente los astronautas.

Los científicos pueden estimar la dosis de esta radiación con el uso de modelos creados por computadora; sin embargo, la realidad y un modelo realizado en una computadora pueden ser cosas extremadamente diferentes. Hasta ahora, los investigadores no estaban seguros de la precisión de sus modelos al momento de predecir las dosis de radiación que los astronautas experimentan en el espacio.

Y es ahí donde el fantoma entra en escena.

Él hizo posible que se llevara a cabo el experimento real que se necesitaba para demostrar que los modelos son esencialmente correctos. A través del análisis de las mediciones de cientos de sensores de radiación colocados en todo el cuerpo de Matroshka, Francis Cucinotta, del Centro Espacial Johnson, de la NASA, en compañía de sus colegas, descubrió que los modelos son, de hecho, bastante buenos: poseen una precisión de alrededor del 10% del valor de la dosis medida. Esto significa un "adelante con los sistemas" respecto del uso de los modelos para la planificación del regreso a la Luna e, incluso, un viaje a Marte, por parte de la NASA.

El tipo de radiación más peligroso al que los astronautas están expuestos son los rayos cósmicos galácticos (Galactic Cosmic Rays o GCR, en idioma inglés). Se trata de núcleos atómicos "desnudos", algunos tan pesados como los átomos de hierro, acelerados a velocidades cercanas a la de la luz por distantes supernovas. Debido a su elevada velocidad, a su alta masa y a la carga eléctrica positiva, las partículas de GCR pueden causar tremendos daños a las células de una persona. Además, los métodos tradicionales para el bloqueo de la radiación no las pueden detener.

Entender el peligro no es tan simple como saber cuánta radiación hay allí afuera.

"Lo que realmente importa es cuánta radiación impacta contra los órganos vitales de una persona", comenta Cucinotta.

Y para alcanzar dichos órganos, las partículas de la radiación deben primero pasar a través de las paredes de la nave espacial, del traje espacial de la persona, de la piel y de otros tejidos del cuerpo. Es muy complejo. Algunas veces, estas barreras reducirán la velocidad, o detendrán por completo a la partícula radiactiva. Sin embargo, en ocasiones, la colisión entre una partícula de radiación y una barrera produce una lluvia de nuevas partículas de radiación, conocida como radiación "secundaria". Los modelos realizados por computadora deben tomar en cuenta todo esto.

Los astronautas de la estación espacial usan sensores en sus trajes de vuelo para registrar la exposición total a la radiación; sin embargo, no hay manera práctica de medir cuánta radiación realmente alcanza los órganos vitales. Fred posee sensores prácticamente en todos lados -incluso en su interior.

Los fantomas se fabrican con un plástico especial que se asemeja en gran medida a la densidad del cuerpo humano y se encuentran rebanados horizontalmente en 35 capas de 2,54 cm (una pulgada) de ancho. En estas capas, los investigadores colocaron un total de 416 dosímetros del tipo litio-cristal, cada uno de los cuales mide la dosis de radiación acumulada en ese punto del cuerpo durante todo el experimento. Fred y Matroshka también contienen varios dosímetros "activos" localizados en el sitio donde se encuentran los órganos vitales, tales como el cerebro, la tiroides, el corazón, el colon y el estómago. Estos sensores activos mantienen un registro de cómo la radiación cambia momento a momento. En conjunto, esta variedad de sensores documentaron detalladamente la propagación de la radiación a través de sus cuerpos.

"La geometría y composición del torso imita al cuerpo humano muy bien", comenta Cucinotta. "Me parece que es una prueba muy buena".

De modo que ahora que estos modelos creados por computadora han sido verificados en la vida real, ¿qué dicen acerca de cómo mantener a los astronautas a salvo en una estación lunar, o en Marte?

"Las misiones lunares de corta duración son aceptables", comenta Cucinotta, "pero vivir en un hábitat lunar durante 6 meses ya comienza a ser problemático. Vamos a tener que hacer un trabajo realmente bueno respecto de la protección contra la radiación, y tal vez tengamos que tomar medidas de índole médica para contrarrestarla si pensamos llevar a cabo misiones de 6 meses de duración".

Los modelos sugieren que Marte será inclusive más complicado. Algunos escenarios requieren misiones de 18 meses o más de duración. "Actualmente, no existe un diseño exitoso que permanezca dentro de los límites de seguridad como para realizar una misión a Marte", comenta Cucinotta. "El poner demasiado material aislante de la radiación alrededor de la nave la haría demasiado pesada como para despegar, de modo que necesitamos encontrar materiales aislantes de la radiación que sean más livianos, y probablemente debemos desarrollar medidas médicas que contrarresten el daño causado a las células por los rayos cósmicos". El científico comenta que uno de los obstáculos más grandes para el progreso en esta área es la "incertidumbre en el tipo de daño celular que ocurre cuando existe exposición a los rayos cósmicos. Aún tenemos mucho que aprender".

Ciencia@NASA

Caminantes espaciales ponen a prueba concepto de protección planetaria

Sitios a examinar con hisopos en los guantes de los astronautasDurante la reciente instalación del conjunto final de paneles solares de la Estación Espacial Internacional, los científicos del proyecto LOCAD-PTS midieron los niveles de contaminación producida por microorganismos. Esta prueba podría impedir que los seres humanos contaminen las arenas de Marte.

"Hicimos las pruebas utilizando el LOCAD-PTS, un laboratorio biológico en miniatura para viajeros espaciales", explica Jake Maule, quien es el investigador principal del experimento. LOCAD-PTS son las siglas en idioma inglés de Lab-On-a-Chip Application Development Portable Test System (Sistema Portátil de Prueba y Desarrollo de Aplicaciones de Laboratorio en un Microprocesador).

"Antes de que los tripulantes de la misión STS-119, Steve Swanson y Richard Arnold, salieran de la exclusa de la Estación Espacial Internacional para instalar los nuevos paneles solares de la estación, la astronauta Sandy Magnus frotó sus guantes con uno de los hisopos de alta tecnología del LOCAD y luego realizó pruebas para detectar la presencia de microbios en las muestras tomadas. El procedimiento se repitió cuando los astronautas ingresaron nuevamente en la estación espacial, más de seis horas después".

Hicieron la prueba, llamada Experimento de Exploración con el LOCAD-PTS, porque los seres humanos algún día saldrán por otra compuerta: la de una nave que se pose en el planeta Marte. Y necesitarán asegurarse de que no ensuciarán al Planeta Rojo, y a sus posibles formas de vida, con microorganismos humanos. Los exploradores están decididos a traer a la Tierra muestras geológicas impecables de Marte para analizar.

Finalmente, el equipo del LOCAD planea desarrollar un tipo especial de hisopo que se pueda usar fuera de la estación espacial. Por ahora, "nuestra meta es ver si podemos monitorizar los guantes de manera efectiva sin interferir con la preparación de la actividad extravehicular y la limpieza. Esos momentos de gran actividad en la EEI serán todavía más intensos antes de una caminata por la Luna o por Marte".

En Marte, los exploradores del futuro necesitarán hacer monitoreos y reducir la contaminación biológica antes, durante y después de sus salidas. Una nave espacial con seres humanos en su interior siempre contiene una gran cantidad de material biológico y no se puede eliminar todo. "Nuestro experimento ayudará a definir cuáles son los niveles aceptables de material biológico en la superficie de cualquier cosa (incluidos los trajes espaciales) que podrían ser sacados de la cabina hacia el 'mundo salvaje' del exterior".

De ese modo, si los astronautas en Marte traen de regreso a la nave cualquier cosa que parezca tener vida bajo el microscopio, tendrán una idea de si es una forma de vida nativa de Marte o si sólo se trata de una mancha de hongos del ombligo de algún astronauta.

Ciencia@NASA

Seguidores

C.C. 2.5 Enigmas del Futuro   ©Template Blogger Green by Dicas Blogger.

TOP