Bienvenid@s al curso 2018-2019

Este blog pretende ser una ayuda para el estudio de la asignatura de Ciencias de la Tierra y Medio Ambiente de los alumnos de 2º de Bachillerato.

A lo largo del curso irán apareciendo entradas con comentarios sobre las unidades didácticas, noticias relacionadas con el medio ambiente, ejercicios de selectividad, recordatorio de fechas de exámenes, presentaciones o animaciones de distintas partes del libro, etc.

Y recuerda que: "Si se siembra la semilla con fe y se cuida con perseverancia, solo será cuestión de recoger sus frutos". (Thomas Carlyle)

domingo, 27 de marzo de 2011

mi+dtv: Tres noticias en tres minutos


Esta semana mi+dtv tratará sobre una nueva relación observada entre la enfermedad del Alzheimer y procesos desmielinizantes, la explicación evolutiva de la ausencia de hueso peneano en el Hombre y, finalmente, las políticas de prevención de catástrofes ambientales.

FUENTE madri+d 21/03/2011

Alzheimer y desmielinización...

Un nuevo estudio muestra la relación existente entre algunos genes claramente implicados en la etiología de la enfermedad de Alzheimer con la muerte de los oligodendrocitos, unas células que recubren y protegen a los axones neuronales...

Penes sin hueso

Compartimos con los chimpancés más del 95% de nuestro genoma. Sin embargo, tenemos muchas diferencias con ellos. Algunas, estructuralmente más que curiosas...

Prevención de catástrofes ambientales

A finales de 2002 el buque petrolero Prestige se hundió frente a las costas de Galicia provocando uno de los mayores desastres ecológicos de la historia de España. Ahora, un nuevo estudio analiza la capacidad de la sociedad para hacer frente a catástrofes marinas como éstas... Información completa en mi+dtv.


¿Qué pasa en Fukushima (Parte 1)? Así funciona un reactor BWR.


Publicado por Manuel Fernandez Ordoñez el 21 marzo, 2011 Comentarios (14)Manuel Fernández Ordóñez

La semana pasada se puso de manifiesto (nosotros ya lo sabíamos, pero ahora queda demostrado de forma patente) la falta de conocimientos que la sociedad en general y la prensa en particular tienen acerca de cualquier cosa relacionada con la energía nuclear. Confirmando la hipótesis que establece que cuanto más lo desconoces más lo temes, los titulares de la prensa internacional (la española entre ellas) desataron sus más bajos instintos. Decidieron que si Japón no había tenido bastante había que exagerarlo aún más, que los más de 20.000 muertos eran pocos, que con eso no vendían los suficientes periódicos, que la alarma nuclear apelaba perfectamente a aquello que se apela cuando no se tienen argumentos, a lo sentimientos, al miedo, al pathos. No habéis inventado nada, hace ya muchos siglos que lo hacían los griegos. No es el momento de ajustar cuentas, no estamos aquí para eso. Estamos aquí para informar, para divulgar, para explicar. Durante la pasada semana hubo gente que decidió leer lo que aquí se publicaba, hubo gente que decidió seguir lo que algunos decíamos a través de twitter (@fdezordonez). Hubo muchos otros (millones) que decidieron leer la prensa y ver los telediarios. Los primeros vivieron la realidad de los datos objetivos, obtuvieron datos, números, presiones, temperaturas, tasas de dosis, informes oficiales…Los segundos vivieron en una nebulosa de terror inducido por aquellos que tampoco sabían de lo que hablaban. Cada uno elige lo que lee, cada uno elige a quién escucha. Vivimos en la sociedad de la información, ya no hace falta que informen siempre los mismos. Tienen ustedes elección. Elijan. El accidente de Fukushima Dai-ichi aún no ha terminado. La situación está estabilizada, pero no terminada. No hay que adornarlo, no hay que quitarle hierro, la situación es delicada, grave. Pero tampoco hay que exagerarla. Las cosa pueden dar un vuelco e ir a peor, pero lo normal sería que un vez recuperada la potencia externa los reactores comenzaran a refrigerarse de manera estable y se llevaran a parada fría. Eso sería todo, el final, el “apocalipsis” se verá aplazado para la próxima, el “fin del mundo” llegará otro día y en otro lugar y, sobre todo, “Chernobyl” únicamente hubo uno. Fukushima, probablemente, no se lleve ninguna vida humana, pero ha costado muchas cosas. Conviene tener en cuenta que el accidente de Fukushima no ha tenido lugar por un fallo humano, por un error en el diseño o por un mal funcionamiento de la central. Este accidente tuvo lugar porque la naturaleza, desatada y devastadora, sobrepasó todos los límites para los cuales están diseñadas las centrales nucleares. No culpemos a la energía nuclear también de esto, el resto de industrias (de cualquier tipo) aguantaron muchísimo menos. Lo único que aguantó en pie, de hecho, fueron las centrales nucleares. Para entender los eventos que desencadenaron el accidente nuclear de Fukushima Dai-ichi hay que comprender, en primer lugar, cómo funciona una central nuclear. Durante una serie de artículos trataremos de explicar este funcionamiento. Nos centraremos especialmente en la tecnología de reactores BWR como los de Fukushima y trataremos de explicar qué fue lo que falló, por qué lo hizo y qué consecuencias trajo. En este primer artículo trataremos de describir, de manera muy superficial, el funcionamiento en operación normal de una central nuclear. En la siguiente figura se muestra una visión esquemática de los componentes principales en la generación nuclear de electricidad. Podemos ver la vasija del reactor, que contiene el núcleo y otros componentes (como el secador y el separador de humedad). Vemos también en la figura una turbina, un alternador, un condensador y varias bombas. Describiremos a continuación qué función realiza cada uno de esos dispositivos.



Visión esquemática de una central de tecnología BWR. Fuente: Traducción al castellano a partir de una figura de la NRC.



Una central nuclear produce electricidad basándose en un ciclo térmico de agua. ¿Qué quiere esto decir? Pues que al igual que otras centrales térmicas (como las de carbón) se hace hervir agua, el vapor de agua hace girar una turbina y ésta mueve un alternador que produce electricidad. La diferencia fundamental entre una central nuclear y una central de carbón es la forma en la que se hace hervir el agua. En la central de carbón se quema el mineral en una caldera y en ella se calienta el agua. En una central nuclear serán las reacciones de fisión del uranio-235 las que van a calentar el agua. En una central nuclear del tipo BWR el agua se lleva a ebullición en el interior de la propia vasija. De ahí su nombre Boiling Water Reactor (Reactor de Agua en Ebullición). El modo de funcionamiento de una central de estas características es conceptualmente sencillo: el agua fría entra en la vasija del reactor (línea verde) y se la obliga a ir hacia abajo. Una vez llegada al fondo de la vasija gira 180º y se dirige hacia arriba, atravesando el núcleo del reactor, donde se encuentra el combustible nuclear que genera una gran cantidad de calor. Al atravesar el núcleo y ponerse en contacto con las barras de combustible de uranio, el agua alcanza el punto de ebullición y se convierte en vapor de agua. Este vapor hay que separarlo de cualquier humedad que contenga, por lo que se le hace atravesar un secador y un separador de humedad (si este vapor no se secara, cualquier pequeña gotita de agua que llegara a la turbina agujerearía los álabes de ésta como si fueran mantequilla). La turbina gira a gran velocidad, haciendo que un alternador produzca electricidad y la vierta a la red eléctrica. Una vez que el vapor de agua se ha utilizado en la turbina se lleva a un condensador, donde el vapor se enfría y se vuelve a convertir en agua líquida. Para condensar el vapor se utiliza agua fría, que provenía del mar en el caso de Fukushima. Una vez el vapor se ha condensado se vuelve a meter en la vasija del reactor y el proceso comienza de nuevo. Como vemos, el concepto es extremadamente sencillo. Se mete agua en la vasija, que al atravesar el núcleo se convierte en vapor. El vapor se lleva a una turbina y una vez utilizado se enfría en un condensador donde vuelve de nuevo al estado líquido. Una vez en este estado se vuelve a inyectar a la vasija del reactor y se comienza de nuevo. Y así se pasa el agua, años y años, dando vueltas por el interior del reactor. Dejaremos este artículo aquí, no sin antes llamar la atención sobre las bombas que vemos dibujadas en verde en la figura. Centraremos nuestra atención en la bomba que lleva el agua desde el mar al condensador y en la bomba que inyecta el agua del condensador nuevamente en el interior de la vasija del reactor. No diremos más, pero estas bombas han sido de especial importancia en el accidente de Fukushima.

Agua depurada del Pirineo hasta el mar


Quizá sea una sorpresa para muchos saber que parte de las aguas residuales de la temporada de esquí del Pirineo van a parar tal cual salen de las localidades a los ríos aragoneses sin más. La directiva comunitaria que exige que para 2015 todas las aguas residuales de los municipios de la Unión pasen por una depuradora antes de llegar a los cauces impide a las Autoridades escudarse en la difícil orografía del Pirineo y dejar descansar a los, por suerte, caudalosos ríos que hasta ahora cargaban con todo el trabajo.

FUENTE La Razón digit@l 21/03/2011

Sin embargo, recordando eso de «al César lo que es del César», hay que reconocer que los planes de depuración de la Región son loables y vanguardistas. El mérito de tal afirmación es de la Organización para la Cooperación y el Desarrollo, (OCDE) que reconoce la valentía de asumir 450 actuaciones repartidas en el Plan especial de Depuración para municipios de más de 1.000 habitantes, el Plan Integral del Pirineo y un tercer plan en gestación para municipios de menos de 1.000 empadronados, que cubrirán en los próximos años el cien por cien de las aguas utilizadas en la región. A las ventajas medioambientales hay que sumar el efecto colateral de la creación de empleo. Con el Plan Pirineo, unos 7.000 puestos directos, que doblan los ya conseguidos con el Especial. Del 60 al 100% La situación de partida en 2005 requería un gran esfuerzo para cumplir con los deberes europeos. Sólo se depuraban el 60 por ciento de las aguas residuales generadas por su millón trescientos mil habitantes. De aquí, el 50 por ciento se trataba en las dos instalaciones de Zaragoza. Unos 730 municipios no contaban con depuradoras y las sinuosidades del mapa, tan beneficiosas para la temporada de esquí, se adivinaban como un obstáculo técnico. Con el Plan Especial (1.062 millones de euros), que incluía la construcción y entrada en funcionamiento de 132 instalaciones en 13 zonas, el Gobierno se asegura un aumento hasta el 80 por ciento. A día de hoy están en funcionamiento 92 de las 132 infraestructuras previstas y a lo largo de 2011-2012 se «espera que estén todas en marcha», asegura Rafael Izquierdo, director del Instituto Aragonés del Agua. La solución para el Pirineo se ha hecho esperar un poco más. Hace un año se adjudicaban los primeros contratos. Con un presupuesto de 358 millones (como en el plan especial se tiene en cuenta la inversión y la explotación), se ha dividido el terreno, de difícil acceso y de gran dispersión demográfica, en cuatro: las comarcas de La Jacetania (P1), Alto Gállego (P2), Sobrarbe (P3) y la Ribagorza (P4). De la instalación de las 297 plantas y su explotación se encargarán cuatro UTE (Unión Temporal de Empresas) respectivamente. La zona P1, que engloba la cabecera del río Aragón, estará a cargo de la UTE Depurar P1, S.A. formada por Acciona Agua y Comsa Medio Ambiente (97,5 millones de euros). La P2 (cuenca del río Gállego) será para la UTE de Elecnor y Tedagua (98,2 millones). La P3, zona de los ríos Cinca y Ara, estará a cargo de Acsa y Vialex (86 millones) y la P4 será de Aguas de Valencia y OMS Sacede (68 millones). Todas están entregando los proyectos para su revisión y comienzan los trámites para las expropiaciones. Recorrerán el escarpado terreno (se espera como tarde en 2013) 297 depuradoras que, en 240 del total de casos serán de «pequeña» envergadura, tecnológicamente hablando. Las poblaciones de alta montaña sin fábricas contarán con plantas sólo de tratamiento primario o biológico y se irá complicando en función de habitantes y entramado industrial. Para Luis Miguel López Mier, presidente de la UTE Depurar P1, la orografía y el clima dificultarán los trabajos. «Hay un componente de complejidad técnica: la estacionalidad. Con la nieve no podremos trabajar en la construcción durante bastantes meses». Sin embargo, quiere dejar claro que «vamos a regenerar los cauces de los ríos y a actuar sobre unos vertidos que ahora mismo van directamente al río». Ecologistas en Acción da la bienvenida a este nuevo paso en la depuración del Pirineo. Chesus Ferrer, coordinador de la organización en Huesca, lanza un capote a la Administración y recalca que con el Plan Especial, el Gobierno de Aragón estaba por delante en materia de depuración, excepto en el Pirineo. «Es un gran retraso que el agua no se esté tratando. Los tramos altos de los ríos son importantes y aquí se sitúan urbanizaciones, estaciones de esquí y los restaurantes de la frontera». Sobre las depuradoras ya instaladas en el resto de la Comunidad explica sus reticencias hacia infraestructuras que en algunos casos le parecen sobredimensionadas. Izquierdo admite el problema de que hasta ahora toda el agua de consumo del Pirineo va a parar sin tratamiento a los ríos. «Hay alguna depuradora por ahí suelta, construida por algún ayuntamiento... De aquí se deriva la importancia del Plan. Afortunadamente, los ríos en esta área son muy caudalosos gracias a los deshielos y permiten que se diluyan los residuos sin problemas». Sobre el tamaño de las infraestructuras del primer plan explica que la normativa europea establece el concepto de habitante equivalente, y no de derecho, como base del cálculo para el tamaño de instalaciones. «No es lo mismo un municipio con 500 empadronados sin ninguna actividad industrial que uno con los mismos habitantes pero tres polígonos industriales. En esta última a lo mejor el número de habitantes equivalentes es de 1.800».

Autor: Eva M. Rull

El estudio 'definitivo' sobre el cambio climático


"El debate del cambio climático ha sido usurpado por los 'exageradores' y por los 'negacionistas'", asegura el físico de la Universidad de Berkeley Richard A. Muller. "Va siendo hora de que los científicos volvamos a poner las cosas en su sitio: menos distorsiones, más ciencia".

FUENTE El Mundo Digital 21/03/2011

En plena guerra ideológica sobre el calentamiento global, el profesor Muller -autor de 'Física para futuros presidentes'- ha decidido situarse en el término medio e intentar el más difícil todavía: elaborar el estudio más completo, independiente y 'definitivo' sobre el climático. El estudio ha sido bautizado como 'The Berkeley Earth Project' y aspira a ser "un nuevo punto de partida para dejar las cosas claras y tratar de construir un consenso". Muller, en conversación telefónica con EL MUNDO, adelanta que los resultados estarán listos en el próximo mes de abril o en mayo. "La labor del científico es investigar, analizar los resultados y en todo caso facilitar la información al público para que saque sus conclusiones", advierte Muller. "Gran parte del problema ha surgido en el momento en que los científicos han querido ser también activistas y han perdido su credibilidad como investigadores".

'EXAGERADORES' VS. 'NEGACIONISTAS'

En el pelotón de los 'exageradores', Muller habla sobre todo de Al Gore, aunque tiene bastantes más reservas a la hora de criticar al climatólogo de la NASA James Hansen ("su labor como científico ha sido muy válida"). En el otro extremo de la balanza sitúa a los 'negacionistas', a los que conviene no confundir con los 'escépticos' ("una dosis apropiada de escepticismo es siempre deseable en un científico"). Según Muller, la tendencia a "distorsionar la ciencia del clima para incitar a la acción" ha comprometido muy seriamente la labor del Panel Intergubernamental de la ONU (IPCC por sus siglas en inglés). "Les va ser muy difícil recuperar la credibilidad", advierte, "mientras siga al frente Rajendra Pachauri". El físico de Berkeley pretende ir aún más allá de la labor realizada hasta la fecha por IPCC de la ONU, por el Instituto Goddard de la NASA o por la Met Office del Reino Unido, las tres grandes referencias mundiales, atrapadas de una manera u otra en la "politización" de la ciencia del clima, sobre todo tras la publicación de los emails de la Universidad de West Anglia. "Nosotros no vamos a manipular las conclusiones, encontremos lo que encontremos", advierte Muller, que asegura estar alineado junto con muchos otros científicos en un punto intermedio del debate. "Somos un grupo independiente y no partidista. Reuniremos los datos, haremos el análisis y presentaremos los resultados. Dejaremos que la gente saque sus conclusiones".

'THE BERKELEY EARTH PROJECT' Muller se ha propuesto no sólo realizar el mayor estudio hasta la fecha sobre la evolución de la temperatura en la Tierra desde el siglo XVIII, sino efectuar también las mediciones "más rigurosas sobre el clima en nuestros días", con datos provenientes de 39.340 estaciones en todo el planeta. Con el respaldo de la Universidad de Berkeley (el 'laboratorio' del secretario de Energía Steven Chu), el estudio está siendo financiado por grupos de muy diversa índole: desde la Fundación para la Innovación del Clima y la Investigación Energética (creada por Bill Gates) a la Fundación Charles Koch (vinculada al magnate del petróleo). Richard Muller defiende en cualquier caso la "autonomía" del Proyecto de la Tierra alegando que han recibido fondos "tanto de la izquierda como de la derecha" e intentando arrimar el ascua a investigadores que no han tomado partido político. En su equipo figuran el profesor de Estadística David Brillinger, la climatóloga del Instituto de Tecnología de Georgia Judith Curry, y los físicos Saul Perlmutter, Art Rosenfeld y Robert Jacobsen de la Universidad de Berkeley. Según Muller, la evaluación "independiente" sobre el calentamiento global podrá ser utilizada como referencia en Estados Unidos y en todo el mundo, "aunque damos por hecho que una minoría nunca cambiará de opinión por más que la evidencia esté o no de su lado". "Puede que lleguemos a las mismas conclusiones que otros grupos, pero lo haremos de una manera nueva y distinta", asegura el impulsor del Berkeley Earth Project. "Si lo único que conseguimos es permitir un consenso sobre el calentamiento global -un auténtico consenso, y no uno basado en posiciones políticas-, ya será un logro importante".

Autor: Carlos Fresneda

Enlaces de interés - Blog madri+d: Energía y Sostenibilidad - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Renovables y Medio Ambiente - Blog madri+d: Sostenibilidad y Responsabilidad Social Noticias relacionadas - Se reduce la capa de ozono debido a temperaturas inusualmente bajas en el Ártico - El verano de 2010 fue el más caluroso de los últimos 500 años en Europa

Los planeadores submarinos podrán detectar tsunamis y radioactividad


A raíz del desastre ocurrido hace unos días en Japón, los fabricantes de planeadores submarinos o "gliders", como se les conoce en el argot internacional, se plantean incorporar sensores a estas plataformas de observación para que puedan detectar tsunamis y radiactividad.


FUENTE La Razón digit@l 17/03/2011


Así lo ha anunciado el responsable del área de Vehículos, Instrumentos y Máquinas Submarinas (Vimas) de la Plataforma Oceánica de Canarias (Plocan), Carlos Barrera, quien participa estos días en el en el V Congreso Europeo de la materia, que reúne en Gran Canaria a científicos de veinticinco países. Barrera explicó que hasta ahora no se había propuesto aplicar sensores a los planeadores submarinos para que puedan detectar tsunamis o radiactividad, algo que, sin embargo, es tecnológicamente posible, ya que se trata de integrar dos componentes que a día de hoy funcionan cada uno por su lado en diferentes aplicaciones.


Tras lo ocurrido en Japón, las empresas que fabrican planeadores, de origen estadounidense, que también participan en este congreso que se desarrolla en Las Palmas de Gran Canaria, se han planteado "seriamente" empezar a integrar sensores en estos artefactos para que puedan ser de utilidad en catástrofes similares. Así lo hicieron en el desastre ecológico que tuvo lugar en 2010 en el Golfo de México, donde estos planeadores submarinos, preparados para detectar sustancias contaminantes derivadas de hidrocarburos, desarrollaron una actividad muy importante en la zona siguiendo las manchas de petróleo y proporcionando información en tiempo real de su trayectoria, su cantidad y del estado en que se encontraba el crudo. Barrera consideró que las empresas que fabrican gliders "se darán prisa" en aplicar sensores para la detección de tsunamis y radiactividad a estas plataformas de observación, "porque el dinero manda y la intención existe". Explicó que estas empresas ya trabajan en una aplicación que podría mejorar con esta incorporación tecnológica. Así, aludió a las redes de dispositivos que se instalan en el fondo marino, a 2.000 metros de profundidad o más, para detectar cambios de presión en superficie con una precisión muy elevada y así poder predecir terremotos. Estos sistemas necesitan de un cable para llegar a superficie y enviar vía satélite las señales que detectan en tiempo real a una estación receptora ubicada en tierra. Por ello, subrayó que si un glider patrullara las aguas en una determinada zona, esos dispositivos que están en el fondo marino podrían transmitir directamente sus señales a este planeador submarino, lo que ahorraría costes y produciría una mayor efectividad, refirió Barrera.


Enlaces de interés - Blog madri+d: Ciencia Marina y otros asuntos - Blog madri+d: Salud Pública y algo más - Blog madri+d: Un Universo invisible bajo nuestros pies Noticias relacionadas - Hace falta un Servicio Geológico Nacional - ¿Qué es un tsunami? - ¿Qué efectos tiene la radiactividad sobre la salud?

Un satélite para detectar 'tsunamis' desde el espacio


Las boyas instaladas en el fondo del mar y los sismógrafos son los únicos instrumentos que en la actualidad permiten alertar a la población con algunos minutos de antelación de la inminente llegada de un tsunami (habitualmente, la población tiene menos de una hora para ponerse a salvo).

FUENTE El Mundo Digital 21/03/2011

Cuando los sismógrafos registran un terremoto submarino de magnitud superior a 6,5 en la escala de Richter hay riesgo de que se produzca un tsunami. Automáticamente se lanza una alerta aunque no existe la certeza de que vaya a llegar a la costa. Sin embargo, en pocos años la tecnología espacial podría mejorar significativamente la predicción de estas devastadoras olas gigantes que han provocado una enorme catástrofe en Japón. Un proyecto de la Agencia Espacial Europea (ESA) firmado por el ingeniero español Manuel Martín-Neira utiliza la tecnología de los satélites de observación de la Tierra para medir la altura de la superficie del océano. Las aplicaciones son numerosas pero seguramente la más urgente es la de poder detectar con mayor antelación tsunamis.


El sistema PARIS está en fase de estudio pero podría ser una realidad en 2017 o 2018 si se cumple el calendario previsto para su lanzamiento. El sistema desarrollado por este ingeniero de radiometría de microondas fue patentado a principios de los años 90 por la Agencia Espacial Europea, donde investiga. "En aquella época sólo estaba en órbita el sistema de navegación estadounidense GPS y el ruso GLONAS. Conforme pasaron los años, otros países comenzaron a desarrollar sus sistemas de navegación por satélite", explica Manuel Martin-Neira a ELMUNDO.es en conversación telefónica desde Holanda, donde se encuentra el ESTEC ('European Space Research and Technology Centre'), el centro de la ESA en el que trabaja. Aunque los ensayos de PARIS se realizarán con el sistema de navegación por satélite europeo GALILEO, PARIS podrá recibir las señales directas de toda la red mundial de satélites y calcular la altura de la superficie del mar.


EVOLUCIÓN DE LAS OLAS EN EL OCÉANO

Cuando una ola de tsunami de desplaza por el océano, éste muestra una pequeña elevación. Por ejemplo, un tsunami en medio del océano puede tener una altura de 30 o 60 centímetros. Cuando el océano es muy profundo, la ola tiene poca altura pero es muy ancha (puede tener 200 o 300 kilómetros) y viaja a una gran velocidad (unos 800 km. por hora). A medida que la ola se acerca a la costa, su velocidad se va reduciendo conforme disminuye la profundidad. Se va estrechando hasta convertirse en una ola de sólo 10 km. aproximadamente. Todo el agua se acumula en esta superficie, lo que provoca que aumente su altura, que puede tener entre 10 y 30 metros, lo que produce el efecto devastador en la costa. "El objetivo es que un satélite PARIS pueda observar una franja del océano de 1.500 kilómetros en la que podamos captar esa perturbación. Para lograr detectarlo con menos de 30 o 40 minutos de antelación necesitaríamos una constelación de satélites PARIS", explica el ingeniero. "Con 10 satélites PARIS se podría monitorizar todo la Tierra y alertar con 30 o 40 minutos de antelación", calcula.


UN SISTEMA COMPLEMENTARIO

El sistema necesitaría que se procesaran los datos en la Tierra en tiempo real y un sistema de comunicaciones muy efectivo para que la alerta llegue a las poblaciones amenazadas. Martín-Neira considera que su sistema complementaría a los sismógrafos que detectan el terremoto y a las boyas instaladas en el fondo de mar para medir la presión. Este sistema de sensores se instaló en Indonesia tras el devastador tsunami de 2004: "Requieren un cierto mantenimiento y es costoso". Por eso el objetivo es complementar varias tecnologías. El tsunami de Japón del 11 de marzo llegó a la costa en menos de una hora porque en cuanto se produjo el terremoto se avisó a la población. Sin embargo, hoy en día no hay un sistema de detección de tsunamis global: "Tras el tsunami japonés se alertó a todos los países del Pacífico sin tener información real sobre si, efectivamente, iba a producirse. Se previno por si acaso", señala el investigador.


MEDIR LAS CORRIENTES OCEÁNICAS

El principal objetivo de PARIS es medir la superficie del mar, unos cálculos que, además de ayudar a paliar los efectos de los tsunamis, estudiará las corrientes del océano y ayudaran comprender mejor la dinámica oceánica, es decir, cómo circula el agua, unos datos que mejorarían la información que en la actualidad ofrecen los altímetros. Además, aportaría medidas interesantes sobre la vegetación, el nivel de agua de los ríos o el grosor de las capas de hielo. El satélite que se construya para llevar a cabo las pruebas recibirá las señales de navegación transmitidas por un satélite GALILEO Y GPS.

El satélite PARIS volará en una órbita más baja. "Dará vueltas y medirá toda la Tierra (tardará 100 minutos en dar una vuelta completa, de forma que al día haría 14 barridos. Esta frecuencia permitiría detectar un tsunami en cualquier lugar del mundo con al menos 30 minutos de antelación. No tiene por qué ser un esfuerzo de una agencia espacial única: "Tanto la NASA como la agencia espacial china se han mostrado interesados en el concepto PARIS. El mayor reto ahora es recaudar fondos de los países miembros de la ESA para poder materializar el proyecto. "Nuestro objetivo es que cueste menos de 50 millones de euros", señala Martín-Neira. Martín-Neira es también el ingeniero responsable del hasta ahora exitoso sistema MIRAS, que se lanzó al espacio a finales de 2009 en el marco de la misión SMOS. Recopila datos sobre la humedad del suelo y la salinidad del océano, unas mediciones que ayudan a los científicos a prever y a realizar seguimientos de inundaciones y sequías. El instrumento fue utilizado, por ejemplo, durante las graves inundaciones de Pakistán del pasado verano y las recientes lluvias torrenciales en Australia y Nueva Zelanda. "Con el avance tecnológico que tenemos en nuestras manos es posible mejorar la prevención de tsunamis y la alerta temprana. Espero que en el futuro la industria aeroespacial pueda contribuir a ello".

Autor: Teresa Guerrero


Enlaces de interés - Marketplace Tecnológico madri+d - Blog madri+d: Ciencia Marina y otros asuntos - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Conservación y Restauración de la Biodiversidad Noticias relacionadas - Los planeadores submarinos podrán detectar tsunamis y radioactividad - Así es la red de estaciones sísmicas que vigila los terremotos en España - El Big One de Japón

La agricultura energética


La agricultura energética empieza a abrirse paso en muchas empresas andaluzas. El uso intensivo de la biomasa, que utiliza como combustible restos de invernadero, orujo, orujillo y madera, ha propiciado la aparición de empresas especializadas en la fabricación de los denominados pellets (biomasa densificada de pequeño tamaño). Y son también muchos los establecimientos, la mayoría del sector turístico, que han recurrido a la energía térmica para abaratar costes.

FUENTE El País 17/03/2011

La Escuela de Hostelería y Turismo La Laguna de Baeza (Jaén) ha instalado una caldera de biomasa que suministra a todo el recinto agua caliente y calefacción. Esta caldera tiene 581 kilovatios de potencia y cuenta con un quemador de hueso de aceituna (o pellets), y tiene una potencia térmica útil de 500.000 kilocalorías/hora, con un consumo de orujillo de 156 kilos por hora. Sus responsables destacan el importante ahorro que conlleva en cuanto a gastos de combustible así como la versatilidad en cuanto al tipo de biomasa a utilizar.


El Hotel Spa Sierra de Cazorla, en La Iruela (Jaén), es la primera instalación del país que abastece energéticamente a todo un complejo hotelero utilizando como combustible los huesos de las aceitunas, suponiendo un considerable ahorro de energía y aprovechamiento de los recursos naturales de la zona. Y es que el sector oleícola es uno de los que cuenta con mayor potencial en el uso de la biomasa. Sirva como ejemplo que con los 2.500 kilos de residuos de poda del olivar por hectárea, se podrían producir 1.770 millones de litros de etanol al año, lo que supone en torno al 15% del consumo total anual de gasolina en España y la totalidad del consumo andaluz, con un posible valor de mercado alrededor de 2.000 millones de euros.


"El uso de la biomasa supone añadir un plus de excelencia a la marca y a la imagen de su establecimiento turístico y una oportunidad de generación de empleo tanto de empresas instaladoras, como en el seno del sector agrícola, que es la fuente de la que procede la biomasa", ha subrayado el delegado del Gobierno andaluz en Jaén, Felipe López. La producción de biogás es otra de las alternativas del sector agrícola. El grupo Oleocampo, de Torredelcampo (Jaén), ha desarrollado un sistema de producción de biogás a través del procesado del orujo generado en el proceso de fabricación del aceite de oliva. Se trata del primer grupo cooperativo de Andalucía que está llevando a cabo un trabajo de investigación de estas características.


Además de solventar la cuestión de las emisiones, el sistema plantea una alternativa al mercado del orujo de aceituna que podrán traducirse en una mejora de las liquidaciones de los socios, según ha destacado el presidente de Oleocampo, Juan Gadeo. Mientras tanto, la Consejería de Agricultura ha aprobado incentivos para la ejecución de planes de biodigestión, que permitirán el uso de más de 65.000 metros cúbicos de purines al año para la obtención de energía eléctrica. Las ayudas van destinadas a los titulares de explotaciones ganaderas intensivas y su importe máximo irá en función de la producción de purín de cada explotación, con un máximo de 100.000 euros.


El Plan de biodigestión de purines fue aprobado el 26 de diciembre de 2008 por el Consejo de Ministros para la reducción de los gases de efecto invernadero y se encuadra dentro del Plan de Medidas Urgentes de la Estrategia del Cambio Climático y Energía, aprobado por el Gobierno para asegurar el cumplimiento del Protocolo de Kioto. Persigue el tratamiento de más de 9,4 millones de toneladas de purines al año, lo que permitirá reducir anualmente 2,23 millones de toneladas de dióxido de carbono.


Autor: Ginés Donaire


Enlaces de interés - IMDEA Energía - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Renovables y Medio ambiente - Blog madri+d: Energía y Sostenibilidad Noticias relacionadas - Un estudio europeo revela las posibilidades de incrementar en gran medida la oferta de biomasa de madera - Frente a la sequía pinos con variabilidad genética - Aprovechamiento energético de la biomasa - Energías renovables: razones y retos para la nueva década

El cambio climático en la Antártida, influido por factores locales


Científicos de Alemania han cuestionado la hipótesis vigente de que las fluctuaciones de temperatura en la Antártida se deben principalmente a cambios climáticos en el hemisferio norte. Según indican, una proporción muy importante de las fluctuaciones térmicas en este continente se deben en la misma medida a cambios climáticos locales en el hemisferio sur.


FUENTE CORDIS: Servicio de Información en I+D Comunitario 17/03/2011


Los autores, especialistas en climatología, realizaron reconstrucciones de las temperaturas históricas a partir de testigos de hielo y han publicado los resultados de su estudio en la revista Nature. Las variaciones en la órbita y en la inclinación de la Tierra han sido uno de los principales factores de los cambios en el clima del planeta durante el último millón de años. A principios del siglo XX, el matemático serbio Milutin Milankovitch calculó la influencia de la distribución estacional de la insolación. Según sus cálculos, los cambios en la insolación sobre el hemisferio norte repercuten considerablemente en el cambio climático durante períodos prolongados de tiempo, porque las superficies terrestres en concreto reaccionan de forma sensible a dichos cambios en la insolación, si bien las masas terrestres se encuentran distribuidas de manera desigual por el planeta.


Desde entonces sus postulados han constituido la hipótesis de trabajo dominante en la investigación climatológica, respaldados por numerosas reconstrucciones climáticas basadas en testigos de hielo, sedimentos marinos y otros archivos del clima. Sin embargo, tras volver a analizar las reconstrucciones de las temperaturas a partir de testigos de hielo, tres climatólogos del Instituto Alfred Wegener de Investigación Polar y Marina de la Asociación Helmholtz (AWI, Alemania) han cuestionado estas afirmaciones. Por primera vez, los autores, Thomas Laepple, Gerrit Lohmann y Martin Werner, tuvieron en cuenta el hecho de que las temperaturas invernales quedan mejor registradas que las temperaturas estivales en los testigos de hielo antárticos. Al incluir este efecto en los cálculos de los modelos, las fluctuaciones de temperatura reconstruidas a partir de los testigos de hielo también pueden atribuirse a cambios climáticos locales en el hemisferio sur.


Además, en opinión del profesor Lohmann, los indicios hallados en los testigos de hielo coinciden con los datos obtenidos de otras fuentes. «Hemos logrado demostrar que no sólo los datos de los testigos de hielo, sino también de los sedimentos marinos, presentan variaciones similares en determinadas temporadas», señaló. Estos hallazgos sugieren que «quedan muchas cuestiones que tratar por lo que se refiere a la interpretación de los datos paleoclimáticos». Por su parte, el Dr. Laepple indicó: «Nuestros resultados también revisten interés porque pueden sacarnos de un "callejón sin salida" en sentido científico». Ciertamente, hasta ahora han sido muchos los investigadores que han tratado de interpretar los datos históricos del clima terrestre extraídos de la Antártida partiendo de la hipótesis clásica de Milankovitch. Pero según afirmó Laepple, «hasta la fecha no se han podido corroborar todos los aspectos de esta hipótesis». En su opinión, tras este nuevo estudio «el debate queda reabierto y se puede tratar de adquirir una comprensión más precisa de los mecanismos físicos prolongados que influyen en la alternancia entre glaciaciones y períodos cálidos».


Los tres autores puntualizaron que sus hallazgos no ponen en duda la hipótesis de que el cambio climático observado en la actualidad se debe en su mayor parte a la intervención humana. Aclararon que los cambios cíclicos como los examinados en su artículo de Nature se prolongan durante períodos que duran decenas de miles o incluso cientos de miles de años. La abultada emisión de gases que influyen en el clima por parte de los humanos en cuestión de unos pocos cientos de años ha agudizado el incremento natural de los gases de efecto invernadero tras la última glaciación y constituye un fenómeno excepcional en el último millón de años.


Enlaces de interés - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Ciencia Marina y otros asuntos Noticias relacionadas - Se desprende un bloque de hielo de un glaciar en Groenlandia - La Antártida crece por el cambio global - Disminuye el agujero de la capa de ozono en la Antártida - El Polo Norte se calienta - Hasta el fondo del hielo recongelado de la Antártida - Los glaciares enfilan su declive

¿Qué efectos tiene la radiactividad sobre la salud?


Que todo aquel que vive en un radio de 20 kilómetros de la planta nuclear de Fukushima (Japón) abandone la zona y quien se encuentre entre los 20 y 30 km permanezca en el interior de su casa, con las ventanas y las puertas bien cerradas. Éstas son las medidas que Japón está tomando para proteger a la población de la radiactividad.


FUENTE El Mundo Digital 16/03/2011


Para conocer con más profundidad las repercusiones que este accidente puede tener sobre la salud de la población, ELMUNDO.es ha hablado con el doctor Ferrán-Guedea, presidente de la Sociedad Española de Oncología Radioterápica y jefe de Oncología Radioterápica del ICO, y con Eduardo Gallego, profesor del departamento de Ingeniería Nuclear de la Universidad Politécnica de Madrid y vicepresidente de la Sociedad Española de Protección Radiológica.


¿QUÉ SON Y DÓNDE ESTÁN LAS RADIACIONES?

Las radiaciones son un tipo de energía que forman parte de la naturaleza. Por ejemplo, gran parte del material del suelo es uranio y las estrellas también emiten radiación, especialmente el sol, y esto se nota de forma acusada cuando viajamos en avión. Además de en el medio ambiente, también se encuentra en aplicaciones artificiales, como la energía nuclear y ciertas aplicaciones médicas (como la radioterapia para tratar el cáncer o los rayos X).


¿CÓMO LAS ABSORBE EL CUERPO?

Hay muchos tipos de partículas en las radiaciones, pero las que más abundan son las de tipo gamma, que atraviesan sin dificultad los tejidos e impactan en el ADN de las células, precisamente donde se produce el efecto más importante, ya que puede provocar mutaciones celulares y dar lugar a diversos tipos de cáncer. La radiación también se puede inhalar. Esta vía tiene un agravante, porque el elemento químico entra en el cuerpo, puede metabolizarse y permanecer durante mucho tiempo descargando radiaciones. El plutonio, por ejemplo, se puede fijar en los huesos y los pulmones, llegando a originar diferentes tumores.


¿QUÉ RIESGOS SUPONEN PARA LA SALUD?

La radiación controlada no representa ningún riesgo. De hecho, las radiaciones conviven con nosotros, en hospitales, en industrias, en ciertos gases que se encuentran en el terreno... Sirven para tratar el cáncer (radioterapia) y para diagnosticar muchas enfermedades (a través de radiografías, por ejemplo). Otra cosa es lo que ha pasado en Japón. Una situación inesperada e impredecible. Las repercusiones dependen de la distancia a la que se encuentre cada persona, su sensibilidad y, por supuesto, de las dosis y los materiales radiactivos emitidos.


¿QUÉ TIPO DE EFECTOS TIENE LA RADIACIÓN EN EL ORGANISMO?

Hay que distinguir en primer lugar entre la exposición puntual a altas dosis (muy por encima de 100 milisieverts), que puede provocar efectos agudos en poco tiempo (como malestar, quemaduras en la piel, caída de pelo, diarreas, náuseas o vómitos), y los daños acumulados, que pueden causar problemas de salud más graves a largo plazo (cáncer fundamentalmente), sobre todo leucemias y cáncer de tiroides. Estos efectos tienen que ver con la capacidad de las radiaciones ionizantes para provocar cambios en la estructura de las células, es decir, para alterar su ADN; algo que no ocurre con las radiaciones no ionizantes (como las de infrarrojos).


¿A QUÉ DOSIS ESTÁ EXPUESTA LA POBLACIÓN DE FUKUSHIMA?

Según ha reconocido la Agencia de Seguridad Nuclear japonesa, unos minutos después de la tercera explosión registrada en la central, los niveles de radiación superaron los 8 milisieverts (mSv) por hora, el triple de la cantidad normal a la que está sometida una persona a lo largo de todo un año.


¿QUÉ RADIACIÓN RECIBIMOS NORMALMENTE?

Como recuerda la Organización Mundial de la Salud (OMS), una persona recibe unos 3 mSv a lo largo de todo el año, el 80% a través de fuentes naturales de radiación (como ciertos gases que puede haber en el terreno), y el otro 20% a través de procedimientos y pruebas médicas, aunque estas cifras pueden variar en función de la geología del terreno. En España estamos expuestos a entre 2,4 y 3 milisieverts en todo el año (frente a los 8 a los que se expone la población de Fukushima), una cantidad inocua o tolerable. Como explica el profesor Gallego, por debajo de los 100 milisieverts al año (una cifra equivale a dos o tres escáneres), la mayoría de la gente no sufre ningún síntoma. Los ciudadanos de Fukushima tendrían que estar unas 12 horas expuestos para alcanzar los 100 mSv. Lo que sí es recomendable es realizar controles médicos periódicos, centrados en la prevención de posibles tumores. A partir de los 100 mSv pueden aparecer algunos daños en la piel, náuseas, vómitos, problemas respiratorios y, si afecta a mujeres embarazadas, puede ocasionarle al futuro bebé algún tipo de retraso en el desarrollo cerebral. A mayores dosis, mayores repercusiones en la salud: destruyen el sistema nervioso central y los glóbulos blancos y rojos, lo que compromete el sistema inmunológico y deja a la víctima vulnerable ante las infecciones. Si este accidente se agravase hasta el punto de pasar de los 8 mSv a varios miles de milisieverts, se pueden producir casos de Síndrome de Radiación Aguda. Ocurre cuando grandes cantidades de radiactividad entran en el cuerpo en muy poco tiempo. En circunstancias semejantes, la radiactividad afecta a todos los órganos y cualquiera de ellos puede tener un fallo fulminante. Por ejemplo, una única dosis de 5.000 milisieverts mataría aproximadamente a la mitad de las personas expuestas en un mes.


¿QUIÉNES SON MÁS VULNERABLES?

Cuanto más jóvenes, mayor es la sensibilidad a las radiaciones. Su organismo celular se renueva muy rápidamente y si alguna célula se vuelve cancerosa, el tumor se desarrolla con más rapidez.


¿POR QUÉ SE ADMINISTRAN PASTILLAS DE YODO?

Entre los múltiples componentes que pueden encontrarse en un reactor nuclear, uno de los más peligrosos para la salud es el yodo radiactivo. Este yodo que absorbe el organismo durante un accidente nuclear tiende a acumularse en la glándula tiroides (uno de los órganos del cuerpo más sensibles a la radiación), lo que puede ocasionar casos de cáncer y otros problemas de salud más adelante. Como recuerdan los Centros de Control de las Enfermedades de EE.UU. en su página web, el uso de yoduro de potasio (las populares pastillas de yodo) tiene como objetivo precisamente evitar estos daños. El yoduro de potasio satura la glándula tiroides para que ésta no pueda absorber más yodo radiactivo, por lo que este medicamento también suele utilizarse como tratamiento en el caso de pacientes con problemas de hipertiroidismo. A pesar de su elevada eficacia para proteger la tiroides si se administra en las primeras horas de la exposición, las pastillas de yodo no protegen otras partes del organismo. Se calcula que Japón ha repartido ya unas 200.000 tabletas de yodo entre la población.


Autor: Laura Tardón


Enlaces de interés - Blog madri+d: Bio (Ciencia+Tecnología) - Blog madri+d: Salud Pública y algo más - Blog madri+d: Esos pequeños bichitos - Blog madri+d: Los avances de la química y su impacto en la sociedad - Blog madri+d: Uso seguro de productos químicos: Reglamentos REACH y CLP Noticias relacionadas - Investigación para aumentar la seguridad del combustible nuclear - Para Sanidad, las centrales nucleares no aumentan la mortalidad por cáncer - Palomares: 6.000 metros cúbicos de tierra radiactiva sin dueño

Se reduce la capa de ozono debido a temperaturas inusualmente bajas en el Ártico


Investigadores financiados con fondos comunitarios han descubierto que la temperatura inusualmente baja de la capa de ozono del Ártico ha generado una reducción a gran escala de la misma. Los descubrimientos muestran que, si se confirma este deterioro sin precedentes, el Ártico podría contar en breve con mucha menos protección contra los rayos ultravioletas del sol.


FUENTE CORDIS: Servicio de Información en I+D Comunitario 18/03/2011


El estudio recibió fondos del proyecto RECONCILE («Reconciliación de parámetros de procesamiento esenciales para una mayor capacidad de predicción de la pérdida de ozono estratosférico ártico y sus interacciones con el clima»), financiado con 3,5 millones de euros mediante el área temática «Medio ambiente» del Séptimo Programa Marco (7PM) de la Unión Europea. Coordinado por la Unidad de Investigación de Potsdam del Instituto Alfred Wegener de Investigación Polar y Marina de la Asociación Helmholtz (AWI, Alemania), el proyecto contó con la participación de dieciséis instituciones de investigación de ocho Estados miembros y más de treinta estaciones de sondeo de ozono situadas en toda la zona ártica y subártica.


El objetivo general es el de comprender los detalles que aún no han quedado claros en torno a la compleja relación que existe entre la capa de ozono y el cambio climático. Aún son muchos los aspectos relacionados con la reducción de la capa de ozono que precisan aclaración, como por ejemplo cómo se mezcla y transporta a altitudes elevadas el aire procesado. El Dr. Markus Rex, investigador del AWI, comentó: «Nuestras mediciones muestran que durante las últimas semanas y en las altitudes que nos interesan se ha destruido cerca de la mitad del ozono sobre el Ártico. Calculamos que este descenso no se detendrá puesto que las condiciones que han provocado esta reducción rápida del ozono persistirán.»


La reducción de la capa de ozono se produce por la descomposición de clorofluorocarbonos (CFC) antropogénicos en sustancias nocivas y destructoras de ozono cuando las condiciones ambientales son de frío extremo. La relación entre la pérdida de ozono y el cambio climático está clara desde hace tiempo y en ningún sitio es tan evidente como en el Ártico, donde los inviernos siguen alcanzando temperaturas extremas, lo que provoca pérdidas aún mayores de ozono. Al aumentar la concentración de gases de efecto invernadero, las capas más bajas de la atmósfera conservan la radiación térmica terrestre y se calientan. De este modo llega menos radiación a la estratosfera, lo que a su vez intensifica el enfriamiento y agrava la pérdida de ozono.


No obstante, estos cambios no afectan sólo a la zona del Ártico. Las masas de aire expuestas a la pérdida de ozono sobre el Ártico pueden desplazarse hacia el sur, de forma que la capa de ozono, más delgada, ofrece una protección menor contra los rayos ultravioletas también en las latitudes medias. Por ello estos investigadores alertan a Europa de la importancia de protegerse contra los rayos ultravioletas cuando se expongan al sol esta primavera. Como nota positiva se puede reseñar que durante la segunda mitad de este siglo no se seguirá destruyendo ozono en grandes cantidades gracias al Protocolo de Montreal, un tratado internacional adoptado en 1987 que prohibió en todo el mundo la producción de CFC con el fin de proteger la capa de ozono. No obstante, los CFC emitidos durante las décadas anteriores no desaparecerán de la atmósfera en muchos decenios. Esto implica que la capa de ozono se recuperará a largo plazo gracias a las medidas políticas medioambientales adoptadas. Hasta entonces, su destino en el Ártico depende de la temperatura de la misma a una altitud cercana a los veinte kilómetros y por lo tanto queda muy ligado al clima de la Tierra.


Los descubrimientos del proyecto RECONCILE se difundirán en un artículo que se publicará próximamente. El proyecto emplea un método exhaustivo que incluye experimentos en el laboratorio y sobre el terreno además de trabajos de modelización de procesos microfísicos y del transporte de sustancias químicas. Gracias a la creación y comprobación de parámetros fiables de los procesos clave que motivan la reducción de la capa de ozono ártica y a su aplicación en modelos de química climática a gran escala, los investigadores están más capacitados para realizar predicciones más certeras sobre el proceso de reducción de la capa de ozono y sobre su interacción con el cambio climático.


Enlaces de interés - Blog madri+d: Energía y Sostenibilidad - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Sostenibilidad y Responsabilidad Social Noticias relacionadas - La superficie helada del Ártico bate récords de mínimos este invierno - Cuadernos de bitácora del siglo XVIII para estudiar el creciente deshielo del Ártico - Los glaciares enfilan su declive

Así es la red de estaciones sísmicas que vigila los terremotos en España


17 de marzo de 2011 a las 17:55. Terremoto de magnitud 2,5 en la escala de Richter en el Cabo de San Vicente (Portugal). Se trata del último seísmo superior a 1,5 registrado por la red de alerta sísmica española en el área de la Península y Canarias.


FUENTE El Mundo Digital 18/03/2011


Más de 60 estaciones sismológicas vigilan de manera permanente el territorio español, algunas zonas de Portugal y el sur de Francia. Esta suerte de 'Gran Hermano' de los terremotos registra en tiempo real los temblores de tierra y en dos minutos y medio envía la información al centro de recepción de datos de Madrid, el único que existe en España.


Si los seísmos son de una magnitud superior a 3,5, la alerta llega inmediatamente a la Dirección General de Protección Civil y Emergencias y a los teléfonos móviles de los responsables del Instituto Geográfico, centrales hidroeléctricas y nucleares. Y es que aunque nuestro país tiene un riesgo bajo de que se produzcan grandes terremotos, sí tiene una actividad sísmica relevante (terremotos de magnitud inferior a 7) en algunas zonas, como Andalucía, Murcia y Pirineos, que podrían provocar daños considerables. Además, varias estaciones situadas en Toledo 'espían' para la ONU y detectan si se están realizando pruebas nucleares en algún país. Asimismo, el centro de recepción de datos de Madrid es uno de los dos nudos de alerta sísmica que hay en Europa (el otro está en París).


EPICENTRO, MAGNITUD Y PROFUNDIDAD

La mayor parte de las estaciones pertenecen al Instituto Geográfico Nacional aunque al centro de Madrid también llegan los datos transmitidos por las estaciones de otras instituciones (hay varias en Portugal, Melilla o Cataluña). Según explica Emilio Carreño, director de la Red Sísmica Nacional del Instituto Geográfico Nacional, algunas de estas estaciones están muy próximas a otras de la red por lo que no se utilizan sus los datos de manera habitual para evitar retrasar la alerta sísmica y se recurre a ellas sólo si hay alguna avería. "Desde que ocurre el terremoto comienza un procedimiento totalmente automático, sin intervención humana, para calcular el epicentro, la magnitud y la profundidad", señala Carreño a ELMUNDO.es a través de conversación telefónica.


UNA WEB MUY CONSULTADA

Tras recibir los datos en el centro de control de Madrid, que está en funcionamiento las 24 horas del día, los técnicos revisan los cálculos y hacen correcciones si es necesario. A los 15 minutos, los resultados se cuelgan en la página web del Instituto Geográfico Nacional, un portal que según Carreño, "es enormemente consultado por los ciudadanos. Hay una gran inquietud en España por los terremotos", asegura". Carreño recuerda el terremoto de magnitud 5,1 que se produjo en Pedro Muñoz (Ciudad Real) en agosto de 2007, que fue ampliamente sentido en Castilla-La Mancha: "En los primeros 20 minutos tuvimos 700.000 entradas", asegura. Las estaciones sismográficas se encuentran en el campo, en lugares alejados de núcleos urbanos. La mayoría se ha instalado en minas abandonadas o cuevas profundas ya que sus sensores necesitan unas condiciones de presión y temperatura muy estables y poco ruido. Por ello, se evita que haya una cantera o una fábrica cerca: "Las cuevas son ideales", señala Carreño. Las estaciones consumen muy poca energía y la mayoría se autosuministra con energía solar. Están dotadas de diferentes tipos de tecnología (ver mapa superior). Las más sofisticadas y eficaces son las estaciones digitales VSAT, que utilizan el satélite espacial Hispasat para enviar sus datos. Hay también estaciones analógicas y digitales de varios tipos. El centro de recepción de datos de Madrid es también uno de los dos nudos de alerta sísmica que hay en Europa. El otro es el Laboratorio de Detección Geofísica (LDG) de París, con el que va alternando las guardias. Los dos centros reciben y analizan los datos procedentes de toda Europa de los seísmos. Después, distribuyen los resultados a todas las agencias europeas, incluido el Consejo de Europa.


VIGILANCIA DE PRUEBAS NUCLEARES

La antena sísmica de Sonseca (Toledo) tiene otra misión especial: trabaja para la ONU. Los datos recabados permiten detectar si se están realizando pruebas nucleares en algún país. Gracias a la colaboración de varios países, la ONU puede vigilar si algún país hace una prueba nuclear. El IGN forma parte del sistema internacional de vigilancia del Tratado de Prohibición Completa de Ensayos nucleares. Entre Sonseca y Orgaz hay 19 estaciones sismológicas que se dedican a esta labor. Los datos se envían a Viena, donde está la sede, y a Madrid para el control de terremotos. Pueden percibir pruebas nucleares en cualquier país aunque si se producen en un país cercano, como Irán, se recibirán con más nitidez. Asimismo, la Red Sísmica Nacional colabora desde hace cinco años con la Confederación Hidrográfica del Ebro y en la zona norte hay 15 estaciones de uso compartido en torno a los embalses de Etoiz y Yesa.


RIESGO SÍSMICO EN ESPAÑA

Según explica el Instituto Geográfico Nacional, la península Ibérica se halla situada en el borde sudoeste de la placa Euroasiática en su colisión con la placa Africana. El desplazamiento tectónico entre ambos continentes es responsable de la actividad sísmica de los países mediterráneos y, por tanto, de los grandes terremotos que ocurren en zonas como Argelia, Grecia o Turquía. La parte más occidental de la conjunción entre dichas placas es la fractura denominada de Azores-Gibraltar-Túnez, que es la que afecta a España. España sí ha sufrido algunos terremotos muy graves en la falla de Azores-Gibraltar (terremotos de 1755 o 1969). Cada año se registran cientos de temblores aunque la gran mayoría son de magnitud baja. El último terremoto significativo detectado por el IGN ocurrió el pasado 18 de febrero en Alborán Oeste y tuvo una magnitud de 3,8 en la escala de Richter. Son inevitables e impredecibles así que la única fórmula para salvar vidas es construir siguiendo las normas antisísmicas en aquellas áreas que son susceptibles de que se produzca un terremoto.


Autor: Teresa Guerrero


Enlaces de interés - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Conservación y Restauración de la Biodiversidad Noticias relacionadas - Científicos alertan del peligro de otro gran terremoto en Chile - Hace falta un Servicio Geológico Nacional - Los planeadores submarinos podrán detectar tsunamis y radioactividad

miércoles, 23 de marzo de 2011

Los niños son los más afectados por el problema de acceso al agua


La celebración del Día Mundial del Agua ha puesto de relieve tres cuestiones. Primera, que 141 millones de personas no tienen acceso al agua potable y otras 794 no disponen de instalaciones de saneamiento adecuadas. Segunda: entre los que no disponen de agua potable están los niños, lo que dificultará el lograr la mayoría de los Objetivos de Desarrollo del Milenio (ODM). Y la tercera, que todos estos problemas se agravan debido al crecimiento de las ciudades, que complicará aún más el abastecimiento.

FUENTE Público 23/03/2011

Las cifras astronómicas iniciales esconden un elevado índice de mortalidad infantil, ya que los niños son los principales afectados y por lo tanto, la cara de esta carencia."El agua contaminada, el saneamiento inadecuado y las condiciones de higiene deficientes causan la muerte de 1,5 millones de niños menores de cinco años cada año debido a enfermedades diarreicas, además de afectar a la salud, la seguridad y la calidad de vida de los niños", ha denunciado el organismo de Naciones Unidas para la Infancia, Unicef.

Las niñas que no tienen acceso al agua potable pierden tiempo en el estudio y tienen más riesgo de sufrir abusos sexuales.

Los más pequeños se ven empujados a recorrer la distancia que separa sus hogares de las fuentes o pozos donde se abastecen, labor que suele repercutir en los niños, y más en concreto, en las niñas, relegadas a las tareas domésticas. La búsqueda del agua deriva en un problema de oportunidades y de género, ya que pierden horas de estudio, poniendo en riesgo su educación, mientras que además las niñas quedan más expuestas a sufrir abusos sexuales en su camino a por líquido.

Por este motivo, y como ha señala la Fundación Plan, encargada de la protección de los derechos de la infancia y miembro consultivo del ECOSOC de Naciones Unidas, "la existencia de agua potable en una comunidad influye en aspectos como la educación y la igualdad de género, todos ellos relacionados con los Objetivos de Desarrollo del Milenio (ODM)."

Así, el primer problema se enlaza con el segundo y crea una cadena de complicaciones. Cuando en septiembre de 2000 se firmó la Declaración del Milenio, 189 países se embarcaron en la consecución de ocho propósitos que cambiarían las condiciones del mundo en el que vivimos, sin considerar que el incumplimiento de la premisa del acceso al agua potable para niños y niñas hace imposible alcanzar la mayoría de los ODM diseñados hace ya casi 11 años: Lograr la enseñanza primaria universal, promover la igualdad entre géneros y la autonomía de la mujer, reducir la mortalidad infantil, mejorar la salud materna o la lucha contra el paludismo y otras enfermedades. La traba del acceso al agua repercute mucho más allá de lo que a simple vista se imagina.

ESTE AÑO, POR LA GESTIÓN DEL AGUA URBANA

La tercera cuestión responde al planteamiento que se hace cada año de poner el foco en un tema distinto relacionado con el agua. Hoy en día, el crecimiento de las urbes, la industrialización y el cambio climático, los conflictos y los desastres naturales hacen que se hable de 'Agua para las ciudades: respondiendo al desafío urbano'.

La falta de tratamiento del agua, la propagación de enfermedades (cólera, malaria, diarrea) a través de la misma y la filtración de aguas a acuíferos que quedan contaminados, son algunos de los problemas que sufren los 827,6 millones de personas que viven en barriadas de chabolas, que además tienen que llegar a pagar hasta 50 veces más por un litro de agua de lo que pagan 'los más ricos'.

Como paliativos, Naciones Unidas ha puesto en marcha a través de organizaciones como la Unesco o la FAO distintas iniciativas, como la impartición de talleres sobre agua y gobernabilidad, con las que aludir a gobiernos, organizaciones, comunidades y personas para superar el reto de la gestión del agua urbana. Además, reflexiona sobre la reutilización de aguas en ciudades, asegurando que éstas se traten y administren con gran cuidado para utilizarse de forma segura e higiénica para producir cultivos.

El día Mundial del Agua merece una reflexión que ya plantea la directora general de la Unesco, Irina Bokova: "Es imposible lograr un desarrollo humano sostenible sin un agua de buena calidad, a la que todos tengan acceso". El agua es de todos, para todos.

Autor: María Sevillano

Enlaces de interés

- IMDEA Agua
- Blog madri+d: El Agua
- Blog madri+d: Salud Pública y algo más

Noticias relacionadas

- Agua limpia más barata para las emergencias humanitarias
- La agricultura energética
- La hora de las renovables

lunes, 21 de marzo de 2011

Halo solar sobre Guayaquil


La formación de un halo Solar alrededor del sol ha despertado la atención de los guayaquileños. El fenómeno atmosférico es un cuerpo óptico de común ocurrencia, asociado con la reflexión/refracción de la luz, producto de una gran cantidad de partículas de hielo en las nubes.

Se manifiestan como a 22º a la izquierda o derecha del sol como manchas brillantes y hasta coloridas en el cielo.

La aparición del fenómeno cautivó la atención de las personas por la forma como un anillo de colores circundaba el intenso solo del mediodía, el cual se ocultó en varias ocasiones por el tráfico de nubes en el firmamento.

Desde las ventanas de casas y edificios, vehículos privados y públicos,

los ciudadanos observan el fenómeno. Incluso, hubo quienes por desconocimiento, imaginaron que esto tendría alguna relación con los problemas de radioactividad que se registran en Japón.


Shakira's Speech at Oxford Union


En este vídeo Shakira no canta ni mueve sus caderas (a pesar de lo bien que lo hace) sino que nos habla de la importancia de la educación universal, ya no solo por un tema de caridad: es la mejor forma de invertir en nuestro futuro, ¡y qué razón lleva!


jueves, 3 de marzo de 2011

La gestión de incendios forestales, un arte al rojo vivo


Árboles en llamas, huidas frenéticas, una espesa nube de humo que oculta el cielo... un incendio forestal descontrolado ofrece una visión aterradora. Y curiosamente, la evitación sistemática de los incendios forestales puede no hacer más que agravar el riesgo de que más adelante se produzcan incendios de mayor envergadura y más difíciles de controlar. Un equipo de investigadores financiados con fondos de la Unión Europea ha elaborado un método integrado de gestión de incendios en el que destaca el principio de combatir el fuego con fuego.

FUENTE CORDIS: Servicio de Información en I+D Comunitario 03/03/2011

Al proyecto FIRE PARADOX («Método innovador de gestión integrada de incendios forestales para regular este problema mediante un uso inteligente del fuego: resolver la paradoja del fuego») se adjudicaron más de 12,6 millones de euros por medio del área temática «Desarrollo sostenible, cambio planetario y ecosistemas» del Sexto Programa Marco (6PM) de la UE.

El Cemagref (Francia), uno de los socios de FIRE PARADOX, informa en un comunicado: «En los bosques europeos son frecuentes los incendios, cuyas consecuencias medioambientales, económicas y sociales suelen ser catastróficas. La reacción más común ha sido combatir los incendios a toda costa puesto que la prioridad ha sido detener sus impactos negativos. Pero actualmente es preciso adoptar un nuevo método de gestión territorial y de prevención y lucha contra el fuego que permita atenuar de forma sostenible la intensidad y gravedad de los incendios en Europa.»

Para explicar el nombre del proyecto, el Cemagref recuerda el dicho finlandés «El fuego es un mal amo, pero un buen sirviente», que según sus responsables resume la relación paradójica del ser humano con el fuego. La paradoja radica en que al detener los incendios forestales a toda costa, los daños potenciales del próximo incendio se agravan con el tiempo, puesto que la acumulación de biomasa vegetal supone un incremento de combustible que puede provocar y alimentar incendios», añaden desde este instituto público francés de investigación especializado en temas de medio ambiente.

El método de combatir el fuego con el fuego implica quemas prescritas, lo que consiste en provocar incendios según un plan riguroso con el fin de reducir la biomasa vegetal, bien como medida preventiva, bien como táctica para frenar un incendio. Técnicas similares se vienen utilizando a lo largo de la historia y en la actualidad se sabe que ayudan a reducir la cantidad total de dióxido de carbono (CO2) generado por los incendios forestales, pero exigen un conocimiento profundo de la forma en que se desarrollan y extienden los incendios. Se trata, pues, de «aprender a vivir con el fuego».

Los socios de FIRE PARADOX han generado una gran cantidad de contenidos basándose en el saber de especialistas, conocimientos nuevos y métodos innovadores. Parte de este trabajo se centró en las causas y las dinámicas del fuego, mientras que otras tareas se dedicaron a análisis de riesgos y métodos de gestión. Los hallazgos realizados por el equipo del proyecto han permitido desarrollar un conjunto de herramientas y aplicaciones diseñado de forma específica para los profesionales de la silvicultura y antiincendios, así como para autoridades territoriales.

Algunos ejemplos de estas aplicaciones son un simulador informático de incendios a gran escala en Europa y concretamente en todo el arco mediterráneo, un método de evaluación y cartografiado de riesgos, y una serie de publicaciones.

Refiriéndose a una de sus aportaciones a este proyecto, el instituto francés mencionado informa: «Los científicos del Cemagref han descrito los mecanismos biológicos que determinan la inflamabilidad y combustibilidad de árboles y plantas. Esta información se emplea para desarrollar métodos con los que describir en profundidad las distintas especies de plantas (matorrales o árboles, con o sin ramas, agujas u hojas, etc.) y para clasificar rodales según su grado de inflamabilidad y combustibilidad.»

Esta investigación se llevó a cabo en cooperación con otros dos socios franceses: el Instituto Nacional de Investigación Agronómica (INRA) y la Agence MTDA Sarl. Esta contribución permitió el desarrollo del simulador, que analiza información diversa sobre factores tales como topografía, vientos y combustibilidad de los rodales para predecir la dirección en la que es más probable que se extienda un incendio.

El método de evaluación de riesgos se centra en las llamadas zonas de contacto (interface zones) -entre territorios ocupados por urbanizaciones o infraestructuras y parajes naturales- en las que la actividad humana puede plantear una amenaza de incendio. El riesgo asignado a estas zonas viene determinado por diversos factores, como las características de las edificaciones y el tipo exacto y la densidad de la vegetación. Esta aplicación combina el análisis espacial y las imágenes satelitales con datos sobre incendios anteriores y, de esta manera, proporciona indicadores de riesgo correspondientes a estas zonas de contacto.

Entre las publicaciones surgidas de este proyecto hay un manual que recoge prácticas seguras para la realización de quemas controladas y una guía de cartografiado de zonas de contacto en la región mediterránea.

En FIRE PARADOX han participado 36 socios de Argentina, Bélgica, Finlandia, Francia, Alemania, Grecia, Italia, Marruecos, Polonia, Portugal, Eslovenia, España, Túnez, Federación de Rusia, Sudáfrica, Suiza y Reino Unido.

Enlaces de interés

- Círculo de Innovación en Tecnologías Medioambientales y Energía madri+d
- Marketplace Tecnológico madri+d
- Blog madri+d: Conservación y Restauración de la Biodiversidad
- Blog madri+d: Ciencia centrífuga
- Blog madri+d: Sostenibilidad y Responsabilidad Social
- Blog madri+d: Medio Ambiente y Ciencia

Noticias relacionadas

- Protección para los bosques europeos gracias a MOTIVE
- Un estudio europeo revela las posibilidades de incrementar en gran medida la oferta de biomasa de madera
- Frente a la sequía pinos con variabilidad genética

miércoles, 2 de marzo de 2011

La contaminación dispara las posibilidades de padecer alergias


La contaminación en las ciudades dispara las posibilidades de padecer alergias, incluso en población no predispuesta, según datos de la Sociedad Catalana de Alergia e Inmunología Clínica (SCAIC) que, en la presentación de los niveles de polen y esporas de 2011, ha augurado un año "normal" en cuanto a alergias.

FUENTE ABC Periódico Electrónico S.A. 02/03/2011

Aunque existen pocos estudios científicos sobre la relación entre alergias y contaminación, el presidente de la SCAIC, Antonio Valero, ha explicado que el polen en zonas de gran contaminación como las grandes ciudades "expresan mayor cantidad de proteínas descritas como alergénicas".

Concretamente las partículas de emisión diesel pueden ocasionar, en contacto con los granos de polen, el desgrane de la planta facilitando la llegada de estas partículas a las vías respiratorias. El cambio climático también afecta al calendario polínico de las plantas, ya que avanza o alarga el período de polinización.

Según un estudio epidemiológico europeo, el 21,5 por ciento de la población española sufre rinitis alérgica, de los cuales más del 50 por ciento es alérgico al polen. Por otro lado, las plantas que producen más alergia entre los catalanes son las gramíneas, los plataneros de sombra-causan alergia al 6 por ciento de catalanes-, la parietaria, los cipreses -afectan al 3 por ciento de los catalanes- y los olivos.

CIPRESES: POLINIZACIÓN MÁXIMA

Los cipreses están este año en polinización "máxima", ha señalado Valero, que ha destacado la fuerza y el adelanto en el tiempo de este fenómeno en comparación con años anteriores y ha señalado que viene provocado por las lluvias "más importantes de lo habitual" en otoño.

El platanero de sombra empezará a polinizar -si no bajan las temperaturas hasta menos cero- el 10 de marzo, ya que la temperatura actual recuerda en muchos puntos a la de 2007. Valero ha explicado además que fenómenos meteorológicos, como temperaturas más cálidas o lluvias no previstas, provocan una "variabilidad" de las previsiones.

El presidente ha manifestado la importancia del diagnóstico precoz, de la elección del fármaco adecuado y de usar gafas de sol para protegerse de los granos de polen. Además ha señalado que desde las 7 hasta las 10 de la mañana se deben evitar los paseos y la ventilación en los domicilios porque es la hora en la que el aire contiene más partículas.

Enlaces de interés

- Blog madri+d: Bio (Ciencia+Tecnología)
- Blog madri+d: Salud Pública y algo más
- Blog madri+d: Esos pequeños bichitos
- Blog madri+d: Medio Ambiente y Ciencia
- Blog madri+d: Ciencia centrífuga

Noticias relacionadas

- La nube de contaminación agrava el peor momento para los alérgicos
- Crecer en una granja protege de las alergias

martes, 1 de marzo de 2011

El Polo Norte se calienta


La extensión de la superficie helada del océano Ártico ha alcanzado este invierno los niveles más reducidos desde que en 1979 se empezaron a hacer las mediciones y controles por satélite. El mes de enero ha batido el récord de hielo menguante. El mar helado ocupaba ese mes 13,6 millones de km2: unos 50.000 km2 menos que el nivel mínimo alcanzado hasta ahora en un mes de enero, que corresponde al año 2006. El calentamiento global es la primera causa, aunque también han influido fenómenos meteorológicos regionales que forman parte de la variabilidad natural del clima.

FUENTE La Vanguardia Digital 01/03/2011

Este invierno ha desaparecido en el océano Ártico una superficie helada equivalente a dos veces y media la superficie de España. Concretamente, los hielos ocupaban 1,27 millones de km2 menos que la media en el periodo entre 1979 y el 2000. El área helada está siendo inusualmente reducida en la bahía de Hudson, en el estrecho de Hudson (entre el sur de la isla de Baffin y el Labrador) y en el estrecho de Davis (entre la isla de Baffin y Groenlandia). Estas áreas solían congelarse en noviembre, pero este año ha habido retrasos; y el mar de Labrador, incluso, permanece libre de hielos.

"La superficie del mar helado es baja este invierno, en gran parte debido a que el tiempo en el Ártico ha sido muy cálido", explica por correo electrónico Mark Serreze, director del Centro Nacional sobre Datos de Hielo y Nieve, de la Universidad de Colorado en Boulder (EE.UU.).

Las temperaturas en el Ártico fueron entre dos y seis grados superiores a la media en un mes de enero, mientras que en las zonas no cubiertas por la nieve incluso alcanzaron al menos seis grados por encima de la media, según los análisis de este centro.

"El declive que se observa a largo plazo en el Ártico se debe al cambio climático, aunque ha incidido la oscilación ártica, que forma parte de la variabilidad natural del clima", agrega Serreze. Las áreas desheladas han continuado liberando calor a la atmósfera, mientras que los vientos con patrones que acompañan a la fase negativa de la oscilación ártica llevaban aire caliente hacia el Ártico. "Todo esto ha hecho un Ártico especialmente cálido este invierno", observa Serreze.

De hecho, la oscilación ártica desempeña un papel relevante en los inviernos del hemisferio norte, hasta el punto de que estos varían en función de si este fenómeno tiene una fase positiva o negativa. Es positiva cuando las bajas presiones en el Ártico y el anticiclón en las latitudes intermedias mantienen confinados los vientos del Ártico, que así apenas bajan a Europa o Norteamérica. Sin embargo, en la fase negativa, la situación se invierte. Así, en el Ártico se instala un anticiclón y bajas presiones en las latitudes medias del Atlántico, con lo que esta configuración facilita la penetración de grandes masas de aire menos frío hacia zonas más septentrionales y de aire muy frío hacia el sur.

La oscilación del Ártico ha tenido una influencia "fuertemente negativa" este invierno en el hemisferio norte, según Serreze, y eso ha dado como resultado unas condiciones de frío y nieve en el este de Estados Unidos y en partes de Europa, lo que contrasta con un tiempo cálido en el Ártico. Serreze agrega que algunos han planteado la hipótesis de que la pérdida de mar helado haya creado condiciones que facilitan la fase negativa de la oscilación ártica, "aunque eso entra dentro del campo de las hipótesis".

Si continuara esta evolución en la pérdida de masa helada, no se puede descartar que, al final del verano, se bata el récord de deshielo alcanzado el 2007. En septiembre de ese año, el océano Ártico alcanzó un mínimo de 4,2 millones de km2 (frente a los 7,8 millones de km2 registrados en 1980, o sea, una pérdida como siete veces la superficie de España).

Las proyecciones indican que el Ártico podría quedar libre de hielo marino en el verano del 2050, aunque otras estimaciones lo sitúan hacia el 2030. Los expertos señalan que los modelos climáticos de predicción se están quedando cortos, superados por la realidad que muestran los satélites. Además, los hielos gruesos y viejos de varios años están siendo sustituidos por delgados hielos estacionales. Entre los años 2004 y 2008, el total del área cubierta por hielo grueso, viejo y de varios años ha retrocedido más de un 40% en el océano Ártico.

Aun así, se prevé que probablemente la cobertura de hielo en el Ártico permanecerá, al menos, un siglo en invierno, aunque ese hielo invernal será más delgado, según comenta Serreze.

Si se hace un seguimiento tan estricto y existe tanto interés y preocupación por la evolución del polo Norte es porque tiene una influencia global sobre el planeta. El Ártico es su termómetro, pues activa la gran cinta transportadora (la corriente termohalina) del calor a través del Atlántico.

El ritmo en que se derrite la nieve y el hielo del Ártico condiciona el clima de la Tierra, incide en la distribución del calor y afecta tanto a la vida salvaje como a la de las personas. Además, los deshielos en las zonas terrestres de los países ribereños del océano Ártico (Rusia, Canadá, EE.UU., Noruega y Groenlandia, y especialmente en esta isla) pueden incrementar los caudales y hacer elevar el nivel del mar.

La observación permite concluir que "no sólo en verano se funde el hielo en las zonas del Ártico, sino que en invierno ya no se forma tanto hielo como antes", explica Carlos Duarte, profesor de investigación del Instituto Mediterráneo de Estudios Avanzados (CSIC-UIB). "Eso explica que cuando llega el verano el hielo ya llegue en unas condiciones muy vulnerables; ha crecido poca superficie y tarde y, como es muy delgado, se funde rápidamente. Es importante fijarse en lo que pasa en invierno porque es lo que luego explica lo que suceso en verano", añade.

Autor: Antonio Cerrillo

Enlaces de interés

- Blog madri+d: Ciencia en los Polos
- Blog madri+d: Medio Ambiente y Ciencia
- Blog madri+d: Ciencia centrífuga
- Blog madri+d: Ciencia Marina y otros asuntos

Noticias relacionadas

- Una máquina enterrada en la Antártida buscará un raro tipo de partículas
- Cuadernos de bitácora del siglo XVIII para estudiar el creciente deshielo del Ártico
- El deshielo acelera la 'caza' del mamut en Siberia