miércoles, 28 de mayo de 2014

Un estudio describe las condiciones de la agricultura en el Próximo Oriente hace 12.000 años

Un trabajo español codirigido por el catedrático de la Universitat de Barcelona Josep Lluís Araus, el investigador Ramón y Cajal Juan Pedro Ferrio (Agrotecnio-UdL) y el catedrático Jordi Voltas (Agrotecnio-UdL) ha reconstruido las características de la agricultura en sus orígenes comparando muestras de semillas y maderas de yacimientos en el Próximo Oriente -cuna de la agricuultura en Occidente- con muestras actuales. Los resultados permiten conocer, por primera vez mediante evidencias directas, las condiciones de humedad y fertilidad de los cultivos, así como el proceso de domesticación de los cereales por parte de los humanos, desde el neolítico (12.000 años atrás) hasta poco antes de la época prerromana (hace aproximadamente 2.000 años).

La investigación, en la que también han participado los investigadores Ramon Buxó, fitoarqueólogo y director del Museo de Arqueología de Cataluña-Girona, y Mònica Aguilera, investigadora de la UdL actualmente en el Museo de Historia Natural de París, se ha publicado en la revista Nature Communications.

Los investigadores han aplicado técnicas provenientes de la fisiología de cultivos para analizar los restos arqueobotánicos. Así, se analizaron 367 semillas de cereales -como por ejemplo cebada y trigo- y 362 restos de maderas obtenidas en once yacimientos  arqueológicos de la Alta Mesopotamia, que incluye el sudeste de la actual Turquía y el norte de la actual Siria, en el Próximo Oriente. Como material de referencia se analizaron semillas de cultivos actuales de trigo y cebada y maderas de especies similares a las arqueológicas crecidas en la región. 


Los investigadores compararon la medida de los restos de semillas con muestras actuales para determinar cómo se produjo la domesticación de los cultivos. «Hasta ahora, la metodología que se usaba no reconstruía la medida real, sino que medía la anchura y la longitud de semillas carbonizadas», explica Josep Lluís Araus, profesor del Departamento de Biología Vegetal de la UB. «Nosotros hemos reconstruido el peso de la semilla -prosigue el experto- y hemos visto que su incremento continuó durante muccho más tiempo del que se pensaba, posiblemente durante varios milenios». Según el investigador, esta selección inicial de semillas fue «inconsciente», es decir, los primeros agricultores se quedarían con las semillas más grandes y, así, progresivamente, debían aumentar de medida. 

El análisis de las composiciones isotópicas del carbono y del nitrógeno de las muestras -una técnica utilizada en la fisiología y mejora de cultivos- ha sido clave para describir las condiciones de la zona. «La composición isotópica del carbono nos permite evaluar la humedad disponible para los cultivos, que logró un máximo hace aproximadamente 9.000 años y un descenso progresivo hasta los inicios de nuestra era», remarca Araus. En cualquier caso, los investigadores no han encontrado evidencias conclusivas sobre un posible uso del riego como práctica habitual de cultivo. «Con esta información y con la medida de la semilla podemos evaluar la productividad máxima de los cultivos de aquella época», señala Josep Lluís Araus.

Por otro lado, la composición isotópica del nitrógeno facilita información sobre la materia orgánica del suelo y su fertilidad. Según Juan Pedro Ferrio (Agrotecnio-UdL), «a pesar de que eran cultivos de secano, podemos decir que había una gran disponibilidad de nitrógeno en comparación con la actualidad: indudablemente, se cultivaba en terrenos mucho más fértiles que los actuales». Además, se aprecia una pauta de progresivo decrecimiento en la fertilidad del suelo, seguramente por el sobrecultivo o por la extensión de las zonas de cultivo hacia terrenos menos fértiles, y también por el progresivo endurecimiento de las condiciones climáticas.

Todos estos datos permiten describir con más precisión las condiciones de la agricultura en sus orígenes y también la evolución de las poblaciones humanas ligadas a las prácticas agrícolas. «Condiciones como una mayor o menor disponibilidad de agua o la fertilidad de los suelos se han relacionado en este estudio con el rendimiento de los cultivos», explica Josep Lluís Araus. Los rendimientos pasados, en relación con las necesidades calóricas medias de una persona, permiten, por ejemplo, tener una idea aproximada de qué superficie de cultivo era necesaria para alimentar a la población en épocas pasadas. «Esta información -continúa Araus- se puede utilizar para conocer con mn más precisión los límites de crecimiento de los antiguos asentamientos y la evolución de una comunidad humana. La idea sería intentar integrar toda esta información en modelos para entender mejor el pasado», concluye el investigador. (Fuente: U. Barcelona)

¿Sequía a fines de siglo en un tercio de las tierras por culpa del calentamiento global?

La sequía, entendida como una disponibilidad de agua menor que la necesaria, puede ser fruto de varios factores, como por ejemplo una disminución de las precipitaciones, un descenso de los niveles de los embalses y del manto freático, o un incremento de la pérdida de humedad de una superficie por evaporación, que conduzca a una menor retención de agua.

La mayor demanda local de agua, como por ejemplo por un aumento de la población, o por la puesta en marcha de actividades que exigen más agua, puede también conducir a una situación de escasez de agua.

Todos los factores deben tenerse en cuenta, y el grado de influencia de cada uno sobre la magnitud de las condiciones de sequía puede variar bastante dependiendo de cada zona del mundo.

Para finales de siglo, el creciente calor atmosférico habrá propagado las condiciones secas y de aridez a más áreas agrícolas y urbanas que los cambios en los patrones de precipitaciones por sí solos, según los resultados de un nuevo estudio.

En el ámbito popular, es fácil relacionar sequía exclusivamente con escasez de lluvia, pero, como hemos dicho, son muchos más los factores que intervienen en el fenómeno.


En particular, unas tasas más elevadas de evaporación pueden jugar un papel mucho más importante de lo que bastante gente cree, pues las temperaturas más cálidas son capaces de extraer más humedad de los suelos, incluso en algunos lugares donde se ha pronosticado que como consecuencia del calentamiento global aumentarán las lluvias.

Un ejemplo de la importancia de las tasas de evaporación es el reflejado en el nuevo estudio, realizado por el equipo de Benjamín Cook, climatólogo del Observatorio Terrestre Lamont-Doherty, adscrito a la Universidad de Columbia, en la ciudad estadounidense de Nueva York, y que también trabaja en el Instituto Goddard para Estudios Espaciales (GISS, por sus siglas en inglés), ubicado en Nueva York.

En este estudio, que ha tenido en cuenta todas las tierras del mundo excepto la Antártida, se ha estimado que el 12 por ciento de las tierras estarán bajo la influencia de las sequías alrededor del año 2100 si consideramos sólo los cambios en los patrones de pluviosidad; pero teniendo en cuenta también las tasas más altas de evaporación debidas a la energía añadida al sistema y a los cambios en la humedad atmosférica, se llega a la conclusión de que las sequías se extenderán hasta el 30 por ciento, casi la tercera parte de la tierra disponible. Un aumento en dichas tasas acarreará un mayor riesgo de sequía incluso en regiones donde lloverá más que ahora y en las que hay inmensas extensiones de tierra agrícola dedicada al cultivo de trigo, maíz y arroz. Entre estas regiones del mundo figuran el sudeste de China y el oeste de Estados Unidos.

Aún es factible limitar el calentamiento global a 2 grados si se dedican los esfuerzos necesarios

Hay todavía muchas vías de costo económico modesto hacia reducciones sustanciales de las emisiones de gases con efecto invernadero a la atmósfera, si todas las partes implicadas adoptan un compromiso firme y lo cumplen a rajatabla. Ésta es una de las conclusiones de un nuevo informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC). 

El nuevo informe confirma que las emisiones globales de gases con efecto invernadero se han incrementado hasta niveles sin precedentes, a pesar de la cantidad creciente de estrategias propuestas para refrenar el cambio climático. Las emisiones aumentaron con mayor rapidez entre los años 2000 y 2010 que en cada una de las tres décadas previas.

A juzgar por la contribución del Grupo de trabajo III al Quinto Informe de Evaluación del IPCC, aún es factible, si se recurre a una amplia gama de medidas tecnológicas y a cambios atrevidos en políticas y formas de actuar, limitar el aumento de la temperatura media global a 2 grados centígrados por encima de los niveles existentes antes del inicio de la Revolución Industrial. Sin esos drásticos cambios institucionales y de aplicación práctica de tecnologías, difícilmente se tendrá la oportunidad de lograr que el calentamiento global no rebase ese tan temido umbral de temperatura, más allá del cual el sistema climático mundial sufrirá trastornos mucho peores y difíciles de revertir que los registrados hasta ahora, y se instaurará una nueva e incierta era de la historia humana.

El nuevo informe, titulado "Cambio climático 2014, Mitigación del cambio climático", es el tercero de los tres informes de los Grupos de trabajo que, junto con un Informe de síntesis que se publicará en octubre de 2014, constituyen el Quinto Informe de Evaluación del IPCC sobre el cambio climático. El Grupo de trabajo III está encabezado por tres copresidentes: Ottmar Edenhofer (Alemania), Ramón Pichs-Madruga (Cuba) y Youba Sokona (Malí). 

Abordar, con buenas oportunidades de éxito, el reto de limitar el aumento de la temperatura media global a 2 grados centígrados, exige recortar para mediados de siglo las emisiones mundiales de gases de efecto invernadero entre un 40 y un 70 por ciento con respecto a las de 2010, y reducirlas a casi cero para finales del presente siglo. Un enfoque ambicioso de lucha contra el exceso de dióxido de carbono (CO2) en la atmósfera podría incluso ir más allá de recortar las emisiones, requiriéndose tal vez hasta retirar una parte del que ya hay en la atmósfera. 

Para el informe, se analizaron unos 1.200 escenarios presentados en estudios científicos. Esos escenarios fueron generados a partir de modelos digitales por 31 equipos científicos de todas partes del mundo. El objetivo fue examinar los requisitos previos económicos, tecnológicos e institucionales, y las consecuencias de cada estrategia de mitigación y de cada nivel de ambición en sus objetivos. "Muchas vías distintas pueden conducir a una situación futura que esté dentro de los límites fijados por la meta de no superar los 2 grados centígrados", explica Edenhofer, vicedirector del Instituto para la Investigación de Impactos del Clima, en Potsdam, Alemania. "Todas ellas requieren sustanciales inversiones. Evitar posponer más la puesta en práctica de las medidas de mitigación, y recurrir a una amplia gama de tecnologías, pueden ayudar a reducir los costes asociados".

Muchos son los nuevos conocimientos que, desde el último Informe de Evaluación del IPCC, se han incorporado a lo que se sabe sobre cómo paliar el cambio climático. Los autores del nuevo informe del Grupo de trabajo III (el quinto informe del Grupo), han incluido unas 10.000 referencias a literatura científica en 16 capítulos. 

Estabilizar las concentraciones de gases de efecto invernadero en la atmósfera requiere reducir las emisiones asociadas a la generación energética y al consumo de energía, lo que atañe a la industria, al transporte, al uso de edificios, al de la tierra y a diversas actividades inherentes a todo asentamiento humano. 

Recortar hasta casi cero las emisiones de centrales eléctricas es una medida común de entre las más propuestas en los escenarios de mitigación ambiciosos. Pero utilizar la energía del modo más eficiente posible también es una estrategia vital. "Reducir el uso de energía nos daría más flexibilidad para elegir tecnologías energéticas que emitan bajos niveles de carbono, en el presente y en el futuro", argumenta Pichs-Madruga. 

El uso que se le dé a la tierra es otro factor decisivo que puede acercarnos o alejarnos del objetivo de no superar los 2 grados centígrados de calentamiento. Refrenar la deforestación galopante que sufre el planeta, y plantar árboles allá donde sea viable y aconsejable, puede detener e incluso revertir las emisiones de CO2 derivadas del uso de la tierra. 

El secuestro subterráneo permanente del dióxido de carbono puede ser de ayuda, pero presenta problemas complejos. La mayor preocupación sobre el almacenamiento del dióxido de carbono es la de los escapes potenciales. El principal riesgo que el secuestro subterráneo del carbono tiene para la salud humana es el de la asfixia provocada por escapes. Secuestrar bajo tierra carbono podría además competir con otros usos más vitales de la tierra.

Desarrollo Económico no tiene por qué ser sinónimo de Contaminación y Calentamiento Global. "La tarea básica de la mitigación del cambio climático es desvincular las emisiones de gases con efecto invernadero del crecimiento de las economías y la población", resume Sokona. "Proporcionando acceso a fuentes adecuadas de energía y reduciendo la contaminación local del aire, muchas medidas de mitigación pueden contribuir al desarrollo sostenible." Cuando la humanidad logre una economía sólida basada en las energías limpias y renovables, se abrirá una etapa de prosperidad y bienestar sin apenas precedentes en la historia.

Skype traducirá conversaciones en tiempo real

A finales de este año será posible para dos interlocutores hablar por videoconferencia aunque uno no entienda el idioma del otro. Microsoft prepara una nueva versión de Skype que será capaz de traducir en tiempo real una conversación entre diferentes idiomas. La traducción aparecerá escrita como subtítulos bajo la imagen de vídeo.
Satya Nadella, el nuevo presidente de la compañía, hizo una demostración del nuevo servicio en directo durante su entrevista en la conferencia Codecon, un evento en California organizado por la web de tecnología Re/Code. Nadella charló durante unos segundos con Gurdeep Pall, vicepresidente de la compañía y responsable de Skype, traduciendo simultáneamente la conversación del inglés al alemán.
La herramienta llegará a finales de año en fase beta y estará disponible en un principio sólo para la versión de Windows de Skype, aunque el objetivo de Microsoft es llevarlo a todas las plataformas en las que el 'software' de videoconferencia esté disponible en un futuro próximo. En un primer momento tampoco se podrá traducir a cualquier idioma. Sólo estarán disponibles unos pocos -la compañía no ha especificado cuáles- pero la lista se irá ampliando también con el tiempo. 
 
El sistema de reconocimiento y traducción "aprenderá" con cada conversación que traduzca y conforme pasen los años se volverá mucho más preciso, apuntan sus responsables. "Es el producto de décadas de investigación de toda la industria y años de trabajo en nuestros laboratorios. Todavía estamos dando los primeros pasos pero el traductor universal que veíamos en la serie Star Trek ya no está muy lejos", asegura Pall.

Post-post- PC

Nadella aprovechó la entrevista también para apuntar algunas de las direcciones estratégicas que tomará durante su presidencia. Considera a Microsoft una compañía centrada en los servicios pero que debe tomar las riendas y fabricar sus propios productos cuando sean necesarios para comunicar su visión de futuro. Como ejemplo puso el nuevo híbrido entre tableta y portátil presentado la semana pasada, la tercera generación de una apuesta, Surface, muy arriesgada para la compañía y que no ha dado los frutos esperados en las primeras dos encarnaciones.
Nadella considera esta mezcla de servicios y productos como uno de los referentes en lo que bautizó como la era "post-post-PC", en referencia al término usado por Steve Jobs años antes para hacer referencia al auge de tabletas y móviles como sustituto del ordenador convencional. El nuevo presidente cree, sin embargo, que Microsoft no debe alienar a otros fabricantes que usan el sistema operativo Windows en sus productos y se centrará en dispositivos que no compitan directamente con los de ellos.
La reciente compra de Nokia, sin embargo, podría complicar estos planes en el terreno de la telefonía móvil, donde Microsoft cuenta todavía con el apoyo de otros grandes fabricantes.
Nadella, en cualquier caso, se mostró evasivo en lo referente a la compañía finlandesa. Cuando la periodista Kara Swisher, conductora de la entrevista, le preguntó si se había posicionado a favor de la compra de Nokia la respuesta de Nadella fue lacónica: "Prefiero no contestar".

Google fabricará su propio coche autónomo

La ambición de Google por construir un coche autónomo es bien conocida. El gigante de la red sueña desde hace cuatro años con un futuro en el que no será necesario prestar atención a la carretera. Pero hasta ahora todos los prototipos creados por la rama de investigación y desarrollo de la compañía, Google X, estaban construido sobre coches convencionales, modelos híbridos adaptados para la circulación sin conductor gracias a potentes sensores y varios ordenadores a bordo.
Ayer, durante la conferencia Codecon que se celebra en Rancho Palos Verdes, California, el cofundador de Google, Sergey Brin, mostró un vehículo más avanzado y construido por los propios ingenieros de la compañía que condensa todos los adelantos conseguidos en los últimos años. Es un coche compacto, eléctrico,biplaza y que no tiene volante ni pedales, tan sólo un botón de encendido y una pantalla que muestra la ruta que seguirá el vehículo.
"Ha sido realmente inspirador poder empezar desde cero y pensar¿qué debe tener un vehículo como éste?", aseguran los responsables del prototipo. El coche está pensado para áreas urbanas y suburbanas y alcanza una velocidad máxima de 40 kilómetros por hora. El frontal está fabricado con un material esponjoso que protege tanto a los pasajeros como a los peatones u otros vehículos en caso de que se produzca un accidente. El coche cuenta además con dos sistemas de dirección y frenado. En caso de que uno falle, se activa automáticamente el de repuesto.
Google construirá 100 unidades a lo largo de los próximos añospara realizar pruebas en California. Brin, sin embargo, aseguró queaún quedan años de ajustes y conversaciones con los organismos reguladores antes de que ver un coche autónomo en la autopista o la calle de nuestro barrio se convierta en algo normal.

Miedo a los accidentes

Hasta ahora, los prototipos que Google tiene en circulación sólo han sufrido un accidente y sucedió mientras el conductor tenía el control manual del vehículo.
El miedo a las repercusiones de un accidente con un coche autónomo, sin embargo, sigue siendo la principal preocupación de los gobiernos, las aseguradoras y los fabricantes.
Brin señaló que la seguridad es precisamente el eje que mueve el desarrollo de este tipo de vehículos. La esperanza de Google es que los vehículos autónomos reduzcan de forma significativa el número de accidentes en carretera, la mayoría debidos a error humano.
La pasada semana California confirmó que a partir de septiembre comenzará a otorgar licencias de circulación a compañías que quieran experimentar con coches autónomos en carreteras del estado. Estas licencias, sin embargo, no serán accesibles para el nuevo coche de Google.
Los vehículos deberán contar con pedales y volante y tener siempre un conductor profesional capaz de tomar el control si surge algún problema inesperado. También tendrán que estar asegurados en caso de accidente por un importe superior a cinco millones de dólares. Google espera que nuevas regulaciones menos estrictas en los próximos años permitan ensayardesplazamientos en estos nuevos vehículos sin conductor y sin volante.

sábado, 24 de mayo de 2014

Mala salud cardiaca por culpa de bacterias nocivas típicas de las encías

Un estudio muestra que las mismas bacterias que causan las enfermedades comunes de las encías promueven también las enfermedades cardiacas. El descubrimiento podría mejorar la forma en que se diagnostican y tratan estas últimas.

La investigación la ha realizado el equipo de Irina M. Velsko, de la Universidad de Florida en Estados Unidos, y los resultados han sido presentados en un congreso de la ASM (American Society for Microbiology, o Sociedad Estadounidense para la Microbiología), una organización fundada en 1899 y que cuenta con unos 40.000 socios.

Las enfermedades cardiacas son una de las principales causas de muerte, y las enfermedades infecciosas comunes de las encías afectan a un gran porcentaje de la población.

Desde varios años atrás, se ha venido sospechando que hay alguna relación entre esas enfermedades periodontales y la mala salud cardiaca, pero no se había hallado una asociación de causa-efecto. En el nuevo estudio, se ha encontrado. A partir de ahora, esas enfermedades de las encías deberán ser vistas como un factor de riesgo para las enfermedades del corazón.


En el estudio, Velsko y sus colegas infectaron a ratones con cuatro bacterias específicas (Porphyromonas gingivalis, Treponema denticola, Tannerella forsythia, Fusobacterium nucleatum) que causan enfermedades periodontales, e hicieron un seguimiento de su expansión. Una vez que las bacterias fueron detectadas en las encías del ratón, el corazón y la aorta, los investigadores vieron un aumento en factores de riesgo, bien conocidos, de las enfermedades cardiacas, entre ellos el colesterol y la inflamación.

El nuevo estudio forma parte de una investigación más extensa acerca de los efectos de las enfermedades periodontales sobre la salud general, que está siendo llevada a cabo en el laboratorio de Kesavalu Lakshmyya en el Departamento de Periodontología de la Universidad de Florida.

Profundizando en los beneficios específicos de la dieta mediterránea para la salud

La dieta mediterránea, caracterizada por raciones abundantes de alimentos como verduras, cereales integrales, pescado y aceite de oliva, se considera desde hace tiempo muy buena para mantener la salud cardiaca. Si bien se ha establecido la relación entre la dieta y una reducción en la inflamación, la conexión específica entre la dieta y los niveles de plaquetas y glóbulos blancos, dos marcadores inflamatorios específicos en el cuerpo, no había quedado clara. En concreto, las cantidades altas en los recuentos de plaquetas se asocian con enfermedades vasculares, y también con otras no vasculares como por ejemplo el cáncer, mientras que una cifra elevada de glóbulos blancos es un predictor de enfermedad vascular isquémica.

Con el fin de comprender si una dieta rica en compuestos saludables podría influir favorablemente en los niveles de plaquetas y de glóbulos blancos, el equipo de las investigadoras Licia Iacoviello y Marialaura Bonaccio, del Instituto Neurológico Mediterráneo NEUROMED en Italia, hizo un análisis de los hábitos alimentarios de casi 15.000 hombres y mujeres italianos sanos de 35 años o más, como parte de un estudio más amplio.


El equipo de investigación observó que el consumo de la dieta mediterránea está directamente relacionado con niveles más bajos de plaquetas y de glóbulos blancos, que a su vez están correlacionados con menores niveles de inflamación. Cuando se comparó a los participantes que no siguieron la dieta mediterránea tradicional de forma estricta con aquellos que sí la siguieron estrictamente, se comprobó que éstos últimos eran menos propensos a tener cantidades altas en los recuentos de plaquetas, y en los de glóbulos blancos.

Los investigadores también evaluaron el papel de los componentes específicos de la dieta para ayudar a aclarar la correlación observada, incluyendo el contenido de antioxidantes y de fibra, los cuales han sido previamente relacionados con beneficios cardiovasculares. Estos componentes reflejaron, aunque sólo parcialmente, el vínculo entre la dieta y el recuento de glóbulos blancos. Algo parecido ocurrió con los niveles de plaquetas.

Un hallazgo importante de este estudio es, por tanto, que la dieta mediterránea en su conjunto, y no sólo unos pocos ingredientes específicos, es probablemente responsable de los resultados beneficiosos para la salud vinculados a dicha dieta, y por ello, tal como sugiere la Dra. Bonaccio, la dieta mediterránea en su conjunto, no solo algunos de sus componentes, debe fomentarse como parte de los hábitos de alimentación saludables.

En la investigación también han trabajado Augusto Di Castelnuovo, Amalia De Curtis, Simona Costanzo, Mariarosaria Persichillo, Maria Benedetta Donati, Chiara Cerletti y Giovanni de Gaetano.

Más indicios de un enorme cráter de impacto antiguo en la provincia canadiense de Alberta

Una antigua estructura en forma de anillo, presumiblemente la huella de un cráter de ocho kilómetros de diámetro, descubierta en el sur de la provincia canadiense de Alberta, sugiere que el impacto de un gran meteorito devastó el sur de Alberta en algún momento de la prehistoria, hace menos de 70 millones de años. La colisión generó una explosión tan violenta que, de haberse producido hoy en día, habría arrasado Calgary, la mayor ciudad de dicha provincia.

Así lo estiman unos científicos de la Universidad de Alberta y el AGS (Alberta Geological Survey, el servicio de prospección geológica de la provincia), que han analizado esa intrigante estructura geológica.

Los primeros indicios sobre el lugar del impacto, cerca de Bow City, un pueblo hoy esencialmente deshabitado, fueron descubiertos por Paul Glombick, geólogo del AGS, y luego han sido inspeccionados larga y minuciosamente por un equipo de expertos de la Universidad de Alberta dirigido por Doug Schmitt, catedrático en física de rocas.

El paso del tiempo y la acumulación de hielo de los glaciares, han enterrado y erosionado gran parte de las evidencias, haciendo imposible a estas alturas asegurar con plena certeza que la estructura en forma de anillo fue causada por el impacto a gran velocidad de un meteorito. De todas formas, las evidencias sísmicas y geológicas sí respaldan la teoría del impacto.


Desde la colisión, unos 1.500 metros de sedimentos han sido erosionados. Eso hace que sea muy difícil estimar una fecha más precisa para el impacto que la vaga estimación citada.

La erosión ha desgastado todo, excepto las "raíces" del cráter, dejando una depresión semicircular de ocho kilómetros de diámetro, con un pico central. Cuando se formó el cráter, probablemente alcanzó una profundidad de entre 1,6 y 2,4 kilómetros. Según los cálculos de Wei Xie, del equipo de investigación, un impacto capaz de excavar un cráter así tiene inevitablemente consecuencias devastadoras para la vida en la zona.

Un impacto de esta magnitud exterminaría todo a su alrededor hasta una distancia considerable. Si sucediera hoy, Calgary (a 200 kilómetros al noroeste) sería completamente devastada, y en Edmonton (a 500 kilómetros al noroeste) los cristales de las ventanas se romperían. Por su tamaño, el meteorito debió además arrojar a la atmósfera una cantidad tremenda de polvo, algo que, por fuerza, debió tener consecuencias en el planeta entero durante décadas.

La escasez de oxígeno en el Mar Báltico es 10 veces peor que hace un siglo

El Mar Báltico está sufriendo una creciente falta de oxígeno. Su escasez en el lecho marino está matando animales y vegetales. Los expertos que han estudiado este problema están haciendo un llamamiento para emprender acciones urgentes que eviten el progreso de esta catástrofe ecológica.

Después de varios años de discusiones sobre las posibles causas del desastre, un grupo de investigadores de las universidades de Aarhus en Dinamarca, Lund en Suecia, y Estocolmo en Suecia, ha determinado que el exceso de nutrientes provenientes de tierra firme es la principal causa de que extensas zonas del Báltico se hayan vaciado de oxígeno.

Las zonas más profundas del Mar Báltico siempre han tenido un bajo contenido de oxígeno. En este mar, hay una capa de agua relativamente dulce por encima del agua más densa y más salada de la capa profunda. Esto resulta en una estratificación eficaz de la columna de agua, lo que impide la mezcla de las masas de agua necesaria para transferir oxígeno al agua en la parte inferior.

Durante el último siglo, las áreas de reducción de oxígeno han aumentado drásticamente desde aproximadamente 5.000 kilómetros cuadrados en torno al año 1900, hasta nuestros días, en que abarcan 60.000 kilómetros cuadrados, una extensión mayor que la ocupada por la superficie total de Dinamarca.


El equipo de Jacob Carstensen, profesor en el Departamento de Biociencias de la Universidad de Aarhus, analizó datos de la temperatura del agua, el contenido de oxígeno y la salinidad, que se remontan hasta hace 115 años. Basándose en estos análisis, los autores del estudio han podido determinar que el notable exceso de nutrientes provenientes de tierra firme son la principal causa del agotamiento generalizado del oxígeno.

Durante los últimos veinte años, el cambio climático también ha ejercido un papel negativo en esta mala situación del oxígeno. Condiciones ambientales más cálidas reducen la solubilidad del oxígeno de la atmósfera y aumentan el consumo de oxígeno debido a que los procesos de respiración biológicos se elevan.

El agotamiento del oxígeno en el lecho marino tiene un impacto negativo en todo el ecosistema. Esto es en parte debido a que el lecho marino se convierte en un "desierto" habitado sólo por bacterias que pueden sobrevivir sin oxígeno o con muy poca cantidad de éste.

Estudios recientes demuestran que se necesitan décadas antes de que la fauna bentónica repueble un fondo marino muerto, una vez que el nivel de oxígeno ha vuelto a alcanzar valores aptos para la permanencia de dicha fauna.

Un paso más en el proyecto hacia un automóvil que corra a mil millas por hora

El reto es muy ambicioso y un sector de la comunidad científica lo consideró imposible: Lograr llegar a la velocidad de 1.000 millas por hora (unos 1.600 kilómetros por hora, o Mach 1,3) circulando por tierra en un automóvil. Por supuesto, tanto el singular automóvil supersónico como la pista sobre la que deberá correr son especiales.

Lo que el equipo de científicos e ingenieros del proyecto BLOODHOUND Supersonic Car aprenda o invente para superar este reto tendrá luego aplicaciones prácticas en muchos campos, pero obviamente si la hazaña principal se logra, el éxito del proyecto será total y rotundo, no solo batiendo un récord impensable de velocidad para un vehículo terrestre sino también alzándose como un ejemplo espectacular de ciencia-ficción convertida en realidad, y de tenacidad tecnológica para hacer posible lo imposible.

Es evidente que los desafíos aerodinámicos asociados con el desarrollo de un vehículo terrestre capaz de viajar de forma razonablemente segura hasta una velocidad tan elevada son grandes. El equipo del proyecto BLOODHOUND SSC ha tenido que combinar de un modo nunca antes intentado ideas avanzadas de tecnología tomadas de la ingeniería de los coches de carreras de Fórmula 1, la del sector aeronáutico, y la del campo astronáutico.

Encabezando el proyecto están Andy Green, actual recordista mundial y primero que condujo un vehículo supersónico en tierra (en 1997), que será el piloto del nuevo auto, y Richard Noble, que es el director del proyecto y fue el recordista anterior a Green.


El automóvil BLOODHOUND SSC mide unos 13 metros y medio de largo. Pesa 7 toneladas y media cuando está lleno de combustible. Su forma aerodinámica le da el aspecto de un avión supersónico sin alas. Sus dos ruedas frontales van por dentro, mientras que las dos traseras están montadas por fuera aunque protegidas por carenados. El control del vehículo recae en el piloto, como en cualquier coche de carreras. Su propulsión es el resultado de una combinación sin precedentes entre un motor cohete y el motor a reacción que actualmente se utiliza en el avión militar Eurofighter Typhoon. Gracias a ello, el automóvil dispone de una potencia de más de 135.000 caballos de fuerza, más de 6 veces la potencia de todos los coches juntos sobre la parrilla de salida en una carrera de Fórmula 1.


domingo, 18 de mayo de 2014




¿Cuánto contamina una botella de plástico?

Las botellas de plástico se demoran entre 100 a 700 años en degradarse, dependiendo del espesor del plástico. Esto nos hace pensar sobre la importancia o no de utilizar este material. El ingeniero Ramzy Kahhat, especialista en Ingeniería Sostenible en Perú, comenta que hay muchos aspectos que considerar al momento de escoger utilizar o no una botella de plástico.

Son diversas las ciudades de Estados Unidos que han implementado alguna legislación sobre la utilización de botellas de plástico. California tiene una política mediante la cual, por cada botella de agua o gaseosa que se recicle se le devuelve al comprador un importe extra hecho al momento de la compra. Por otro lado, San Francisco ha mencionado que estará prohibiendo la venta de botellas con agua en los restaurantes con la finalidad de disminuir su utilización.

El profesor Kahhat explica que la mayoría del agua embotellada, proviene del caño que previamente ha recibido un tratamiento para volverla potable. Sin embargo, en Estados Unidos el agua en botella o del caño, son igualmente potables, por esto se vuelve fácil restringir la utilización del plástico. “En el Perú existen muchas enfermedades causadas por el agua, ya que no es pura”, explica el profesor. Entonces, nos preguntamos cuánto puede contaminar una botella de plástico y si en el país sería posible alguna política para la reducción de la utilización de este material.

La fabricación de plástico sigue un proceso diferente de acuerdo al producto que se va a fabricar. El profesor Kahhat menciona que, en el caso de las botellas usadas como envases de agua, se emplea polietileno tereftalato (PET), producto que se obtiene de los hidrocarburos. Una vez obtenida la resina PET, es comprada por las distintas industrias que mediante inyección de estirado y soplado se obtendrá el envase. El especialista indica que de todo el proceso, el que conlleva más cargas ambientales es el de la purificación del ácido tereftálico ya que emite gases de efecto invernadero.


Sin embargo, el ingeniero señala que es más importante analizar el ciclo de vida que dependerá de diversos factores, ya que, por ejemplo, la extracción de los hidrocarburos será diferente dependiendo del lugar y del tipo de combustible fósil que se use. Por eso, es importante incorporar todos los procesos de producción, uso y fin de vida de una botella para calcular los impactos ambientales.

Kahhat menciona que una botella de plástico no consume energía en su uso a comparación de una computadora; por otro lado, al fin de su vida, su reuso (reciclaje) es altamente recomendable, para que no termine en un relleno sanitario o en el mar.


Algunos mencionan que toda el agua que se utiliza en la producción de una botella de plástico, hace que no valga emplearla en un objeto que solo se usa una vez. El especialista sostiene que esto también es relativo. Por ejemplo, según la organización Waterfootprint un vaso de 250 ml de leche ha usado 255 litros de agua para su producción, mientras que la misma cantidad de cerveza ha utilizado tan solo 74 litros de agua, “y esto no es un indicador de que deberíamos dejar de tomar leche”.

La organización Ciudad Saludable, mediante un estudio realizado en el 2009, encontró que los recicladores de la calle aportaron 292,636.94 toneladas de residuos reciclables, entre los cuales se encontró que marcaba una reducción de 336,708.50 barriles por año en la extracción de recursos naturales para la fabricación del PET. Si bien no llegamos a reciclar cerca del 50% de las botellas de plástico como lo hace Estados Unidos, si tenemos una cifra interesante. “Hay que entender que el mercado del PET es bastante importante, es altamente comercializado, por eso hay muchos recicladores informales que están haciendo que nuestra tasa de reciclaje sea alta”, menciona Kahhat.

Por eso, si bien las botellas de plástico generan un problema de contaminación ambiental, su alternativa de reuso es muy importante evitando las cargas ambientales durante la extracción de la materia prima y en el transporte, lo que no sucede con otros objetos. Por ejemplo, “entre un mueble o un automóvil, cuál de los dos se puede volver a utilizar, pues en este caso no es recomendable reutilizar el auto ya que con el tiempo termina siendo más contaminante”. En el caso de las botellas de plástico su reciclaje puede resultar en diversos productos como frazadas, bolsas de plástico, recipientes de diverso uso, etc. (Fuente: PUCP/DICYT)

La capa de hielo de la Antártida Occidental ya ha comenzado a desmoronarse de forma inexorable

En línea con los resultados de otros estudios recientes sobre los que hemos hablado en las páginas de Noticiasdelaciencia.com, las conclusiones de un nuevo estudio indican que la capa de hielo de la Antártida Occidental, que posee suficiente agua como para elevar el nivel global del mare en medio metro, está adelgazándose de manera irreversible. Diversos científicos han estado avisando sobre su declive, basándose en teorías, pero aportando pocas predicciones firmes sobre qué ocurrirá y cuándo, hasta ahora.

Unos investigadores de la Universidad de Washington en la ciudad estadounidense de Seattle utilizaron mapas topográficos detallados y modelado por ordenador para mostrar que el proceso de desmoronamiento parece haber empezado ya. El enorme glaciar Thwaites desaparecerá probablemente en cuestión de siglos, según estiman estos científicos, elevando el nivel del mar en medio metro. En algunos lugares, el glaciar Thwaites ha estado perdiendo varios metros (decenas de pies) de altura por año.

Los análisis indican que el proceso actual de pérdida de hielo generará una pendiente que promoverá el deslizamiento de grandes bloques de hielo hacia mar adentro. Al igual que un montón de arena demasiado alto se acaba derrumbando, el glaciar perderá estabilidad hasta acabar desmoronándose en bloques que pasarán al océano. Allí será mucho más fácil y rápido que el hielo se derrita, lo que a su vez aumentará el nivel del mar.


Los autores del nuevo estudio, Ian Joughin, Benjamin E. Smith y Brooke Medley, de la citada universidad, han presentado públicamente estos resultados a través de la revista académica Science. En otro estudio, que se publicará en la revista académica Geophysical Research Letters, se llega a una conclusión similar.

La buena noticia es que si bien el proceso es inexorable, el escenario más rápido contempla un plazo de unos 200 años, y el más largo más de 1.000 años. Por lo menos, habrá tiempo para remodelar las áreas costeras habitadas a fin de garantizar que no se vean afectadas por el aumento futuro del nivel del mar.

El tipo de persona que más solemos eliminar como amigo en Facebook

Dos estudios están brindando datos sobre el tipo más común de "amigo" que solemos eliminar de nuestra lista de amigos en Facebook, y sobre las reacciones emocionales a ello.

Estas dos investigaciones, en las que ha trabajado Christopher Sibona de la Universidad de Colorado en Denver, Estados Unidos, muestran que la persona que con más probabilidades eliminaremos como amigo en Facebook será un antiguo conocido del instituto, liceo o colegio de enseñanza secundaria donde estuvimos estudiando.

La razón más común para eliminar como amigo en Facebook a quien se agregó como amigo a raíz de ser alumno del mismo centro de enseñanza secundaria es que la persona ha publicado comentarios bastante radicales sobre cuestiones de política o de religión. La otra gran razón para hacerlo es su gran volumen de publicaciones y el escaso o nulo interés de éstas.

Así lo ha comprobado Christopher Sibona, quien hace un año ya constató en otra investigación (http://noticiasdelaciencia.com/not/6631/) que eliminar a un amigo de Facebook tiene más consecuencias en el mundo físico de lo creído.

Para las dos nuevas investigaciones, Sibona y sus colegas se basaron en datos de 1.077 personas.

De entre los resultados, cabe destacar los siguientes:

Los cinco tipos principales de personas que los encuestados dijeron haber eliminado como amigos en Facebook son:

1: Amigos de la enseñanza secundaria
2: Otros
3: Amigos de amigos
4: Amigos del trabajo
5: Amigos por intereses comunes

Se comprobó que la gente a menudo elimina como amigos en Facebook a compañeros de trabajo por acciones de estos en el mundo real, y no por lo que publican en Facebook

Una de las razones por las que Sibona cree que los amigos de la enseñanza secundaria son de los que más eliminaciones reciben es porque sus creencias políticas y religiosas puede que no fueran tan fuertes cuando eran más jóvenes. Y si esas creencias se han vuelto más radicales y "estridentes" con el paso del tiempo, resulta más fácil ofender a los demás.

Además, en las redes sociales es más fácil detectar desacuerdos o comentarios polémicos.

La segunda de las dos nuevas investigaciones se centró en analizar el impacto emocional de ser eliminado como amigo en Facebook.

El predictor más fuerte sobre qué clase de emociones genera que a uno le borren como amigo de Facebook es cuán estrecha es la amistad cuando esto pasa. Podemos estar más molestos y dolidos si quien lo hace es nuestro mejor amigo.

El estudio encontró cuatro factores que predecían la respuesta emocional de alguien al ser borrado como amigo en Facebook.

De estos cuatro factores, dos predijeron que un usuario se vería afectado negativamente: Un factor de estos dos era si en algún momento las personas fueron amigos cercanos. El otro factor era si la persona eliminada le prestaba mucha atención a su propia lista de amigos.

Los otros dos factores predijeron que un usuario se vería afectado menos negativamente: Uno era si los amigos habían discutido las dificultades antes de la eliminación. El otro factor era si la persona eliminada como amigo habló sobre ello con otras personas después de ocurrida la eliminación.

La investigación mostró que la eliminación de un amigo en Facebook se produce más frecuentemente con amigos que alguna vez fueron cercanos que con quienes son simples conocidos.

A pesar de la preponderancia de vínculos débiles en las redes sociales, estos hallazgos ayudan a colocar a la eliminación de amigos en Facebook dentro del contexto más amplio de la ruptura de relaciones.