Bienvenid@s al curso 2018-2019

Este blog pretende ser una ayuda para el estudio de la asignatura de Ciencias de la Tierra y Medio Ambiente de los alumnos de 2º de Bachillerato.

A lo largo del curso irán apareciendo entradas con comentarios sobre las unidades didácticas, noticias relacionadas con el medio ambiente, ejercicios de selectividad, recordatorio de fechas de exámenes, presentaciones o animaciones de distintas partes del libro, etc.

Y recuerda que: "Si se siembra la semilla con fe y se cuida con perseverancia, solo será cuestión de recoger sus frutos". (Thomas Carlyle)

domingo, 27 de marzo de 2011

mi+dtv: Tres noticias en tres minutos


Esta semana mi+dtv tratará sobre una nueva relación observada entre la enfermedad del Alzheimer y procesos desmielinizantes, la explicación evolutiva de la ausencia de hueso peneano en el Hombre y, finalmente, las políticas de prevención de catástrofes ambientales.

FUENTE madri+d 21/03/2011

Alzheimer y desmielinización...

Un nuevo estudio muestra la relación existente entre algunos genes claramente implicados en la etiología de la enfermedad de Alzheimer con la muerte de los oligodendrocitos, unas células que recubren y protegen a los axones neuronales...

Penes sin hueso

Compartimos con los chimpancés más del 95% de nuestro genoma. Sin embargo, tenemos muchas diferencias con ellos. Algunas, estructuralmente más que curiosas...

Prevención de catástrofes ambientales

A finales de 2002 el buque petrolero Prestige se hundió frente a las costas de Galicia provocando uno de los mayores desastres ecológicos de la historia de España. Ahora, un nuevo estudio analiza la capacidad de la sociedad para hacer frente a catástrofes marinas como éstas... Información completa en mi+dtv.


¿Qué pasa en Fukushima (Parte 1)? Así funciona un reactor BWR.


Publicado por Manuel Fernandez Ordoñez el 21 marzo, 2011 Comentarios (14)Manuel Fernández Ordóñez

La semana pasada se puso de manifiesto (nosotros ya lo sabíamos, pero ahora queda demostrado de forma patente) la falta de conocimientos que la sociedad en general y la prensa en particular tienen acerca de cualquier cosa relacionada con la energía nuclear. Confirmando la hipótesis que establece que cuanto más lo desconoces más lo temes, los titulares de la prensa internacional (la española entre ellas) desataron sus más bajos instintos. Decidieron que si Japón no había tenido bastante había que exagerarlo aún más, que los más de 20.000 muertos eran pocos, que con eso no vendían los suficientes periódicos, que la alarma nuclear apelaba perfectamente a aquello que se apela cuando no se tienen argumentos, a lo sentimientos, al miedo, al pathos. No habéis inventado nada, hace ya muchos siglos que lo hacían los griegos. No es el momento de ajustar cuentas, no estamos aquí para eso. Estamos aquí para informar, para divulgar, para explicar. Durante la pasada semana hubo gente que decidió leer lo que aquí se publicaba, hubo gente que decidió seguir lo que algunos decíamos a través de twitter (@fdezordonez). Hubo muchos otros (millones) que decidieron leer la prensa y ver los telediarios. Los primeros vivieron la realidad de los datos objetivos, obtuvieron datos, números, presiones, temperaturas, tasas de dosis, informes oficiales…Los segundos vivieron en una nebulosa de terror inducido por aquellos que tampoco sabían de lo que hablaban. Cada uno elige lo que lee, cada uno elige a quién escucha. Vivimos en la sociedad de la información, ya no hace falta que informen siempre los mismos. Tienen ustedes elección. Elijan. El accidente de Fukushima Dai-ichi aún no ha terminado. La situación está estabilizada, pero no terminada. No hay que adornarlo, no hay que quitarle hierro, la situación es delicada, grave. Pero tampoco hay que exagerarla. Las cosa pueden dar un vuelco e ir a peor, pero lo normal sería que un vez recuperada la potencia externa los reactores comenzaran a refrigerarse de manera estable y se llevaran a parada fría. Eso sería todo, el final, el “apocalipsis” se verá aplazado para la próxima, el “fin del mundo” llegará otro día y en otro lugar y, sobre todo, “Chernobyl” únicamente hubo uno. Fukushima, probablemente, no se lleve ninguna vida humana, pero ha costado muchas cosas. Conviene tener en cuenta que el accidente de Fukushima no ha tenido lugar por un fallo humano, por un error en el diseño o por un mal funcionamiento de la central. Este accidente tuvo lugar porque la naturaleza, desatada y devastadora, sobrepasó todos los límites para los cuales están diseñadas las centrales nucleares. No culpemos a la energía nuclear también de esto, el resto de industrias (de cualquier tipo) aguantaron muchísimo menos. Lo único que aguantó en pie, de hecho, fueron las centrales nucleares. Para entender los eventos que desencadenaron el accidente nuclear de Fukushima Dai-ichi hay que comprender, en primer lugar, cómo funciona una central nuclear. Durante una serie de artículos trataremos de explicar este funcionamiento. Nos centraremos especialmente en la tecnología de reactores BWR como los de Fukushima y trataremos de explicar qué fue lo que falló, por qué lo hizo y qué consecuencias trajo. En este primer artículo trataremos de describir, de manera muy superficial, el funcionamiento en operación normal de una central nuclear. En la siguiente figura se muestra una visión esquemática de los componentes principales en la generación nuclear de electricidad. Podemos ver la vasija del reactor, que contiene el núcleo y otros componentes (como el secador y el separador de humedad). Vemos también en la figura una turbina, un alternador, un condensador y varias bombas. Describiremos a continuación qué función realiza cada uno de esos dispositivos.



Visión esquemática de una central de tecnología BWR. Fuente: Traducción al castellano a partir de una figura de la NRC.



Una central nuclear produce electricidad basándose en un ciclo térmico de agua. ¿Qué quiere esto decir? Pues que al igual que otras centrales térmicas (como las de carbón) se hace hervir agua, el vapor de agua hace girar una turbina y ésta mueve un alternador que produce electricidad. La diferencia fundamental entre una central nuclear y una central de carbón es la forma en la que se hace hervir el agua. En la central de carbón se quema el mineral en una caldera y en ella se calienta el agua. En una central nuclear serán las reacciones de fisión del uranio-235 las que van a calentar el agua. En una central nuclear del tipo BWR el agua se lleva a ebullición en el interior de la propia vasija. De ahí su nombre Boiling Water Reactor (Reactor de Agua en Ebullición). El modo de funcionamiento de una central de estas características es conceptualmente sencillo: el agua fría entra en la vasija del reactor (línea verde) y se la obliga a ir hacia abajo. Una vez llegada al fondo de la vasija gira 180º y se dirige hacia arriba, atravesando el núcleo del reactor, donde se encuentra el combustible nuclear que genera una gran cantidad de calor. Al atravesar el núcleo y ponerse en contacto con las barras de combustible de uranio, el agua alcanza el punto de ebullición y se convierte en vapor de agua. Este vapor hay que separarlo de cualquier humedad que contenga, por lo que se le hace atravesar un secador y un separador de humedad (si este vapor no se secara, cualquier pequeña gotita de agua que llegara a la turbina agujerearía los álabes de ésta como si fueran mantequilla). La turbina gira a gran velocidad, haciendo que un alternador produzca electricidad y la vierta a la red eléctrica. Una vez que el vapor de agua se ha utilizado en la turbina se lleva a un condensador, donde el vapor se enfría y se vuelve a convertir en agua líquida. Para condensar el vapor se utiliza agua fría, que provenía del mar en el caso de Fukushima. Una vez el vapor se ha condensado se vuelve a meter en la vasija del reactor y el proceso comienza de nuevo. Como vemos, el concepto es extremadamente sencillo. Se mete agua en la vasija, que al atravesar el núcleo se convierte en vapor. El vapor se lleva a una turbina y una vez utilizado se enfría en un condensador donde vuelve de nuevo al estado líquido. Una vez en este estado se vuelve a inyectar a la vasija del reactor y se comienza de nuevo. Y así se pasa el agua, años y años, dando vueltas por el interior del reactor. Dejaremos este artículo aquí, no sin antes llamar la atención sobre las bombas que vemos dibujadas en verde en la figura. Centraremos nuestra atención en la bomba que lleva el agua desde el mar al condensador y en la bomba que inyecta el agua del condensador nuevamente en el interior de la vasija del reactor. No diremos más, pero estas bombas han sido de especial importancia en el accidente de Fukushima.

Agua depurada del Pirineo hasta el mar


Quizá sea una sorpresa para muchos saber que parte de las aguas residuales de la temporada de esquí del Pirineo van a parar tal cual salen de las localidades a los ríos aragoneses sin más. La directiva comunitaria que exige que para 2015 todas las aguas residuales de los municipios de la Unión pasen por una depuradora antes de llegar a los cauces impide a las Autoridades escudarse en la difícil orografía del Pirineo y dejar descansar a los, por suerte, caudalosos ríos que hasta ahora cargaban con todo el trabajo.

FUENTE La Razón digit@l 21/03/2011

Sin embargo, recordando eso de «al César lo que es del César», hay que reconocer que los planes de depuración de la Región son loables y vanguardistas. El mérito de tal afirmación es de la Organización para la Cooperación y el Desarrollo, (OCDE) que reconoce la valentía de asumir 450 actuaciones repartidas en el Plan especial de Depuración para municipios de más de 1.000 habitantes, el Plan Integral del Pirineo y un tercer plan en gestación para municipios de menos de 1.000 empadronados, que cubrirán en los próximos años el cien por cien de las aguas utilizadas en la región. A las ventajas medioambientales hay que sumar el efecto colateral de la creación de empleo. Con el Plan Pirineo, unos 7.000 puestos directos, que doblan los ya conseguidos con el Especial. Del 60 al 100% La situación de partida en 2005 requería un gran esfuerzo para cumplir con los deberes europeos. Sólo se depuraban el 60 por ciento de las aguas residuales generadas por su millón trescientos mil habitantes. De aquí, el 50 por ciento se trataba en las dos instalaciones de Zaragoza. Unos 730 municipios no contaban con depuradoras y las sinuosidades del mapa, tan beneficiosas para la temporada de esquí, se adivinaban como un obstáculo técnico. Con el Plan Especial (1.062 millones de euros), que incluía la construcción y entrada en funcionamiento de 132 instalaciones en 13 zonas, el Gobierno se asegura un aumento hasta el 80 por ciento. A día de hoy están en funcionamiento 92 de las 132 infraestructuras previstas y a lo largo de 2011-2012 se «espera que estén todas en marcha», asegura Rafael Izquierdo, director del Instituto Aragonés del Agua. La solución para el Pirineo se ha hecho esperar un poco más. Hace un año se adjudicaban los primeros contratos. Con un presupuesto de 358 millones (como en el plan especial se tiene en cuenta la inversión y la explotación), se ha dividido el terreno, de difícil acceso y de gran dispersión demográfica, en cuatro: las comarcas de La Jacetania (P1), Alto Gállego (P2), Sobrarbe (P3) y la Ribagorza (P4). De la instalación de las 297 plantas y su explotación se encargarán cuatro UTE (Unión Temporal de Empresas) respectivamente. La zona P1, que engloba la cabecera del río Aragón, estará a cargo de la UTE Depurar P1, S.A. formada por Acciona Agua y Comsa Medio Ambiente (97,5 millones de euros). La P2 (cuenca del río Gállego) será para la UTE de Elecnor y Tedagua (98,2 millones). La P3, zona de los ríos Cinca y Ara, estará a cargo de Acsa y Vialex (86 millones) y la P4 será de Aguas de Valencia y OMS Sacede (68 millones). Todas están entregando los proyectos para su revisión y comienzan los trámites para las expropiaciones. Recorrerán el escarpado terreno (se espera como tarde en 2013) 297 depuradoras que, en 240 del total de casos serán de «pequeña» envergadura, tecnológicamente hablando. Las poblaciones de alta montaña sin fábricas contarán con plantas sólo de tratamiento primario o biológico y se irá complicando en función de habitantes y entramado industrial. Para Luis Miguel López Mier, presidente de la UTE Depurar P1, la orografía y el clima dificultarán los trabajos. «Hay un componente de complejidad técnica: la estacionalidad. Con la nieve no podremos trabajar en la construcción durante bastantes meses». Sin embargo, quiere dejar claro que «vamos a regenerar los cauces de los ríos y a actuar sobre unos vertidos que ahora mismo van directamente al río». Ecologistas en Acción da la bienvenida a este nuevo paso en la depuración del Pirineo. Chesus Ferrer, coordinador de la organización en Huesca, lanza un capote a la Administración y recalca que con el Plan Especial, el Gobierno de Aragón estaba por delante en materia de depuración, excepto en el Pirineo. «Es un gran retraso que el agua no se esté tratando. Los tramos altos de los ríos son importantes y aquí se sitúan urbanizaciones, estaciones de esquí y los restaurantes de la frontera». Sobre las depuradoras ya instaladas en el resto de la Comunidad explica sus reticencias hacia infraestructuras que en algunos casos le parecen sobredimensionadas. Izquierdo admite el problema de que hasta ahora toda el agua de consumo del Pirineo va a parar sin tratamiento a los ríos. «Hay alguna depuradora por ahí suelta, construida por algún ayuntamiento... De aquí se deriva la importancia del Plan. Afortunadamente, los ríos en esta área son muy caudalosos gracias a los deshielos y permiten que se diluyan los residuos sin problemas». Sobre el tamaño de las infraestructuras del primer plan explica que la normativa europea establece el concepto de habitante equivalente, y no de derecho, como base del cálculo para el tamaño de instalaciones. «No es lo mismo un municipio con 500 empadronados sin ninguna actividad industrial que uno con los mismos habitantes pero tres polígonos industriales. En esta última a lo mejor el número de habitantes equivalentes es de 1.800».

Autor: Eva M. Rull

El estudio 'definitivo' sobre el cambio climático


"El debate del cambio climático ha sido usurpado por los 'exageradores' y por los 'negacionistas'", asegura el físico de la Universidad de Berkeley Richard A. Muller. "Va siendo hora de que los científicos volvamos a poner las cosas en su sitio: menos distorsiones, más ciencia".

FUENTE El Mundo Digital 21/03/2011

En plena guerra ideológica sobre el calentamiento global, el profesor Muller -autor de 'Física para futuros presidentes'- ha decidido situarse en el término medio e intentar el más difícil todavía: elaborar el estudio más completo, independiente y 'definitivo' sobre el climático. El estudio ha sido bautizado como 'The Berkeley Earth Project' y aspira a ser "un nuevo punto de partida para dejar las cosas claras y tratar de construir un consenso". Muller, en conversación telefónica con EL MUNDO, adelanta que los resultados estarán listos en el próximo mes de abril o en mayo. "La labor del científico es investigar, analizar los resultados y en todo caso facilitar la información al público para que saque sus conclusiones", advierte Muller. "Gran parte del problema ha surgido en el momento en que los científicos han querido ser también activistas y han perdido su credibilidad como investigadores".

'EXAGERADORES' VS. 'NEGACIONISTAS'

En el pelotón de los 'exageradores', Muller habla sobre todo de Al Gore, aunque tiene bastantes más reservas a la hora de criticar al climatólogo de la NASA James Hansen ("su labor como científico ha sido muy válida"). En el otro extremo de la balanza sitúa a los 'negacionistas', a los que conviene no confundir con los 'escépticos' ("una dosis apropiada de escepticismo es siempre deseable en un científico"). Según Muller, la tendencia a "distorsionar la ciencia del clima para incitar a la acción" ha comprometido muy seriamente la labor del Panel Intergubernamental de la ONU (IPCC por sus siglas en inglés). "Les va ser muy difícil recuperar la credibilidad", advierte, "mientras siga al frente Rajendra Pachauri". El físico de Berkeley pretende ir aún más allá de la labor realizada hasta la fecha por IPCC de la ONU, por el Instituto Goddard de la NASA o por la Met Office del Reino Unido, las tres grandes referencias mundiales, atrapadas de una manera u otra en la "politización" de la ciencia del clima, sobre todo tras la publicación de los emails de la Universidad de West Anglia. "Nosotros no vamos a manipular las conclusiones, encontremos lo que encontremos", advierte Muller, que asegura estar alineado junto con muchos otros científicos en un punto intermedio del debate. "Somos un grupo independiente y no partidista. Reuniremos los datos, haremos el análisis y presentaremos los resultados. Dejaremos que la gente saque sus conclusiones".

'THE BERKELEY EARTH PROJECT' Muller se ha propuesto no sólo realizar el mayor estudio hasta la fecha sobre la evolución de la temperatura en la Tierra desde el siglo XVIII, sino efectuar también las mediciones "más rigurosas sobre el clima en nuestros días", con datos provenientes de 39.340 estaciones en todo el planeta. Con el respaldo de la Universidad de Berkeley (el 'laboratorio' del secretario de Energía Steven Chu), el estudio está siendo financiado por grupos de muy diversa índole: desde la Fundación para la Innovación del Clima y la Investigación Energética (creada por Bill Gates) a la Fundación Charles Koch (vinculada al magnate del petróleo). Richard Muller defiende en cualquier caso la "autonomía" del Proyecto de la Tierra alegando que han recibido fondos "tanto de la izquierda como de la derecha" e intentando arrimar el ascua a investigadores que no han tomado partido político. En su equipo figuran el profesor de Estadística David Brillinger, la climatóloga del Instituto de Tecnología de Georgia Judith Curry, y los físicos Saul Perlmutter, Art Rosenfeld y Robert Jacobsen de la Universidad de Berkeley. Según Muller, la evaluación "independiente" sobre el calentamiento global podrá ser utilizada como referencia en Estados Unidos y en todo el mundo, "aunque damos por hecho que una minoría nunca cambiará de opinión por más que la evidencia esté o no de su lado". "Puede que lleguemos a las mismas conclusiones que otros grupos, pero lo haremos de una manera nueva y distinta", asegura el impulsor del Berkeley Earth Project. "Si lo único que conseguimos es permitir un consenso sobre el calentamiento global -un auténtico consenso, y no uno basado en posiciones políticas-, ya será un logro importante".

Autor: Carlos Fresneda

Enlaces de interés - Blog madri+d: Energía y Sostenibilidad - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Renovables y Medio Ambiente - Blog madri+d: Sostenibilidad y Responsabilidad Social Noticias relacionadas - Se reduce la capa de ozono debido a temperaturas inusualmente bajas en el Ártico - El verano de 2010 fue el más caluroso de los últimos 500 años en Europa

Los planeadores submarinos podrán detectar tsunamis y radioactividad


A raíz del desastre ocurrido hace unos días en Japón, los fabricantes de planeadores submarinos o "gliders", como se les conoce en el argot internacional, se plantean incorporar sensores a estas plataformas de observación para que puedan detectar tsunamis y radiactividad.


FUENTE La Razón digit@l 17/03/2011


Así lo ha anunciado el responsable del área de Vehículos, Instrumentos y Máquinas Submarinas (Vimas) de la Plataforma Oceánica de Canarias (Plocan), Carlos Barrera, quien participa estos días en el en el V Congreso Europeo de la materia, que reúne en Gran Canaria a científicos de veinticinco países. Barrera explicó que hasta ahora no se había propuesto aplicar sensores a los planeadores submarinos para que puedan detectar tsunamis o radiactividad, algo que, sin embargo, es tecnológicamente posible, ya que se trata de integrar dos componentes que a día de hoy funcionan cada uno por su lado en diferentes aplicaciones.


Tras lo ocurrido en Japón, las empresas que fabrican planeadores, de origen estadounidense, que también participan en este congreso que se desarrolla en Las Palmas de Gran Canaria, se han planteado "seriamente" empezar a integrar sensores en estos artefactos para que puedan ser de utilidad en catástrofes similares. Así lo hicieron en el desastre ecológico que tuvo lugar en 2010 en el Golfo de México, donde estos planeadores submarinos, preparados para detectar sustancias contaminantes derivadas de hidrocarburos, desarrollaron una actividad muy importante en la zona siguiendo las manchas de petróleo y proporcionando información en tiempo real de su trayectoria, su cantidad y del estado en que se encontraba el crudo. Barrera consideró que las empresas que fabrican gliders "se darán prisa" en aplicar sensores para la detección de tsunamis y radiactividad a estas plataformas de observación, "porque el dinero manda y la intención existe". Explicó que estas empresas ya trabajan en una aplicación que podría mejorar con esta incorporación tecnológica. Así, aludió a las redes de dispositivos que se instalan en el fondo marino, a 2.000 metros de profundidad o más, para detectar cambios de presión en superficie con una precisión muy elevada y así poder predecir terremotos. Estos sistemas necesitan de un cable para llegar a superficie y enviar vía satélite las señales que detectan en tiempo real a una estación receptora ubicada en tierra. Por ello, subrayó que si un glider patrullara las aguas en una determinada zona, esos dispositivos que están en el fondo marino podrían transmitir directamente sus señales a este planeador submarino, lo que ahorraría costes y produciría una mayor efectividad, refirió Barrera.


Enlaces de interés - Blog madri+d: Ciencia Marina y otros asuntos - Blog madri+d: Salud Pública y algo más - Blog madri+d: Un Universo invisible bajo nuestros pies Noticias relacionadas - Hace falta un Servicio Geológico Nacional - ¿Qué es un tsunami? - ¿Qué efectos tiene la radiactividad sobre la salud?

Un satélite para detectar 'tsunamis' desde el espacio


Las boyas instaladas en el fondo del mar y los sismógrafos son los únicos instrumentos que en la actualidad permiten alertar a la población con algunos minutos de antelación de la inminente llegada de un tsunami (habitualmente, la población tiene menos de una hora para ponerse a salvo).

FUENTE El Mundo Digital 21/03/2011

Cuando los sismógrafos registran un terremoto submarino de magnitud superior a 6,5 en la escala de Richter hay riesgo de que se produzca un tsunami. Automáticamente se lanza una alerta aunque no existe la certeza de que vaya a llegar a la costa. Sin embargo, en pocos años la tecnología espacial podría mejorar significativamente la predicción de estas devastadoras olas gigantes que han provocado una enorme catástrofe en Japón. Un proyecto de la Agencia Espacial Europea (ESA) firmado por el ingeniero español Manuel Martín-Neira utiliza la tecnología de los satélites de observación de la Tierra para medir la altura de la superficie del océano. Las aplicaciones son numerosas pero seguramente la más urgente es la de poder detectar con mayor antelación tsunamis.


El sistema PARIS está en fase de estudio pero podría ser una realidad en 2017 o 2018 si se cumple el calendario previsto para su lanzamiento. El sistema desarrollado por este ingeniero de radiometría de microondas fue patentado a principios de los años 90 por la Agencia Espacial Europea, donde investiga. "En aquella época sólo estaba en órbita el sistema de navegación estadounidense GPS y el ruso GLONAS. Conforme pasaron los años, otros países comenzaron a desarrollar sus sistemas de navegación por satélite", explica Manuel Martin-Neira a ELMUNDO.es en conversación telefónica desde Holanda, donde se encuentra el ESTEC ('European Space Research and Technology Centre'), el centro de la ESA en el que trabaja. Aunque los ensayos de PARIS se realizarán con el sistema de navegación por satélite europeo GALILEO, PARIS podrá recibir las señales directas de toda la red mundial de satélites y calcular la altura de la superficie del mar.


EVOLUCIÓN DE LAS OLAS EN EL OCÉANO

Cuando una ola de tsunami de desplaza por el océano, éste muestra una pequeña elevación. Por ejemplo, un tsunami en medio del océano puede tener una altura de 30 o 60 centímetros. Cuando el océano es muy profundo, la ola tiene poca altura pero es muy ancha (puede tener 200 o 300 kilómetros) y viaja a una gran velocidad (unos 800 km. por hora). A medida que la ola se acerca a la costa, su velocidad se va reduciendo conforme disminuye la profundidad. Se va estrechando hasta convertirse en una ola de sólo 10 km. aproximadamente. Todo el agua se acumula en esta superficie, lo que provoca que aumente su altura, que puede tener entre 10 y 30 metros, lo que produce el efecto devastador en la costa. "El objetivo es que un satélite PARIS pueda observar una franja del océano de 1.500 kilómetros en la que podamos captar esa perturbación. Para lograr detectarlo con menos de 30 o 40 minutos de antelación necesitaríamos una constelación de satélites PARIS", explica el ingeniero. "Con 10 satélites PARIS se podría monitorizar todo la Tierra y alertar con 30 o 40 minutos de antelación", calcula.


UN SISTEMA COMPLEMENTARIO

El sistema necesitaría que se procesaran los datos en la Tierra en tiempo real y un sistema de comunicaciones muy efectivo para que la alerta llegue a las poblaciones amenazadas. Martín-Neira considera que su sistema complementaría a los sismógrafos que detectan el terremoto y a las boyas instaladas en el fondo de mar para medir la presión. Este sistema de sensores se instaló en Indonesia tras el devastador tsunami de 2004: "Requieren un cierto mantenimiento y es costoso". Por eso el objetivo es complementar varias tecnologías. El tsunami de Japón del 11 de marzo llegó a la costa en menos de una hora porque en cuanto se produjo el terremoto se avisó a la población. Sin embargo, hoy en día no hay un sistema de detección de tsunamis global: "Tras el tsunami japonés se alertó a todos los países del Pacífico sin tener información real sobre si, efectivamente, iba a producirse. Se previno por si acaso", señala el investigador.


MEDIR LAS CORRIENTES OCEÁNICAS

El principal objetivo de PARIS es medir la superficie del mar, unos cálculos que, además de ayudar a paliar los efectos de los tsunamis, estudiará las corrientes del océano y ayudaran comprender mejor la dinámica oceánica, es decir, cómo circula el agua, unos datos que mejorarían la información que en la actualidad ofrecen los altímetros. Además, aportaría medidas interesantes sobre la vegetación, el nivel de agua de los ríos o el grosor de las capas de hielo. El satélite que se construya para llevar a cabo las pruebas recibirá las señales de navegación transmitidas por un satélite GALILEO Y GPS.

El satélite PARIS volará en una órbita más baja. "Dará vueltas y medirá toda la Tierra (tardará 100 minutos en dar una vuelta completa, de forma que al día haría 14 barridos. Esta frecuencia permitiría detectar un tsunami en cualquier lugar del mundo con al menos 30 minutos de antelación. No tiene por qué ser un esfuerzo de una agencia espacial única: "Tanto la NASA como la agencia espacial china se han mostrado interesados en el concepto PARIS. El mayor reto ahora es recaudar fondos de los países miembros de la ESA para poder materializar el proyecto. "Nuestro objetivo es que cueste menos de 50 millones de euros", señala Martín-Neira. Martín-Neira es también el ingeniero responsable del hasta ahora exitoso sistema MIRAS, que se lanzó al espacio a finales de 2009 en el marco de la misión SMOS. Recopila datos sobre la humedad del suelo y la salinidad del océano, unas mediciones que ayudan a los científicos a prever y a realizar seguimientos de inundaciones y sequías. El instrumento fue utilizado, por ejemplo, durante las graves inundaciones de Pakistán del pasado verano y las recientes lluvias torrenciales en Australia y Nueva Zelanda. "Con el avance tecnológico que tenemos en nuestras manos es posible mejorar la prevención de tsunamis y la alerta temprana. Espero que en el futuro la industria aeroespacial pueda contribuir a ello".

Autor: Teresa Guerrero


Enlaces de interés - Marketplace Tecnológico madri+d - Blog madri+d: Ciencia Marina y otros asuntos - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Conservación y Restauración de la Biodiversidad Noticias relacionadas - Los planeadores submarinos podrán detectar tsunamis y radioactividad - Así es la red de estaciones sísmicas que vigila los terremotos en España - El Big One de Japón

La agricultura energética


La agricultura energética empieza a abrirse paso en muchas empresas andaluzas. El uso intensivo de la biomasa, que utiliza como combustible restos de invernadero, orujo, orujillo y madera, ha propiciado la aparición de empresas especializadas en la fabricación de los denominados pellets (biomasa densificada de pequeño tamaño). Y son también muchos los establecimientos, la mayoría del sector turístico, que han recurrido a la energía térmica para abaratar costes.

FUENTE El País 17/03/2011

La Escuela de Hostelería y Turismo La Laguna de Baeza (Jaén) ha instalado una caldera de biomasa que suministra a todo el recinto agua caliente y calefacción. Esta caldera tiene 581 kilovatios de potencia y cuenta con un quemador de hueso de aceituna (o pellets), y tiene una potencia térmica útil de 500.000 kilocalorías/hora, con un consumo de orujillo de 156 kilos por hora. Sus responsables destacan el importante ahorro que conlleva en cuanto a gastos de combustible así como la versatilidad en cuanto al tipo de biomasa a utilizar.


El Hotel Spa Sierra de Cazorla, en La Iruela (Jaén), es la primera instalación del país que abastece energéticamente a todo un complejo hotelero utilizando como combustible los huesos de las aceitunas, suponiendo un considerable ahorro de energía y aprovechamiento de los recursos naturales de la zona. Y es que el sector oleícola es uno de los que cuenta con mayor potencial en el uso de la biomasa. Sirva como ejemplo que con los 2.500 kilos de residuos de poda del olivar por hectárea, se podrían producir 1.770 millones de litros de etanol al año, lo que supone en torno al 15% del consumo total anual de gasolina en España y la totalidad del consumo andaluz, con un posible valor de mercado alrededor de 2.000 millones de euros.


"El uso de la biomasa supone añadir un plus de excelencia a la marca y a la imagen de su establecimiento turístico y una oportunidad de generación de empleo tanto de empresas instaladoras, como en el seno del sector agrícola, que es la fuente de la que procede la biomasa", ha subrayado el delegado del Gobierno andaluz en Jaén, Felipe López. La producción de biogás es otra de las alternativas del sector agrícola. El grupo Oleocampo, de Torredelcampo (Jaén), ha desarrollado un sistema de producción de biogás a través del procesado del orujo generado en el proceso de fabricación del aceite de oliva. Se trata del primer grupo cooperativo de Andalucía que está llevando a cabo un trabajo de investigación de estas características.


Además de solventar la cuestión de las emisiones, el sistema plantea una alternativa al mercado del orujo de aceituna que podrán traducirse en una mejora de las liquidaciones de los socios, según ha destacado el presidente de Oleocampo, Juan Gadeo. Mientras tanto, la Consejería de Agricultura ha aprobado incentivos para la ejecución de planes de biodigestión, que permitirán el uso de más de 65.000 metros cúbicos de purines al año para la obtención de energía eléctrica. Las ayudas van destinadas a los titulares de explotaciones ganaderas intensivas y su importe máximo irá en función de la producción de purín de cada explotación, con un máximo de 100.000 euros.


El Plan de biodigestión de purines fue aprobado el 26 de diciembre de 2008 por el Consejo de Ministros para la reducción de los gases de efecto invernadero y se encuadra dentro del Plan de Medidas Urgentes de la Estrategia del Cambio Climático y Energía, aprobado por el Gobierno para asegurar el cumplimiento del Protocolo de Kioto. Persigue el tratamiento de más de 9,4 millones de toneladas de purines al año, lo que permitirá reducir anualmente 2,23 millones de toneladas de dióxido de carbono.


Autor: Ginés Donaire


Enlaces de interés - IMDEA Energía - Blog madri+d: Conservación y Restauración de la Biodiversidad - Blog madri+d: Un Universo invisible bajo nuestros pies - Blog madri+d: Renovables y Medio ambiente - Blog madri+d: Energía y Sostenibilidad Noticias relacionadas - Un estudio europeo revela las posibilidades de incrementar en gran medida la oferta de biomasa de madera - Frente a la sequía pinos con variabilidad genética - Aprovechamiento energético de la biomasa - Energías renovables: razones y retos para la nueva década