lunes, 28 de octubre de 2013

Descubierto el gen de la manía

La revista Nature publica esta semana un estudio sobre la base genética de la manía o el comportamiento maníaco que ocurre en el trastorno bipolar y en el trastorno por déficit de atención con hiperactividad (TDAH).

Los autores, liderados por Huda Zoghbi, de la Escuela de Medicina de Baylor (EE UU), apuntan que las causas de este comportamiento pueden esconderse tras la sobreexpresión de SHANK3, un gen con un papel importante en la función cerebral.

“SHANK3 codifica una proteína que funciona en la sinapsis, el punto de comunicación entre las neuronas”, explica Zoghbi a SINC. “Sus mutaciones y deleciones –pérdidas de un fragmento de ADN de un cromosoma– se han asociado con autismo, discapacidad intelectual y esquizofrenia. Y el aumento en la cantidad de SHANK3 podría ser también perjudicial para la función neuronal”, añade.

Sin embargo, a diferencia de las supresiones de SHANK3, hasta ahora no estaban claras las consecuencias de la sobreexpresión de este gen. El trabajo que las ha confirmado se llevó a cabo primero en ratones y después en dos pacientes humanos.

“Para nuestra sorpresa, los ratones que sobreexpresan SHANK3 presentan convulsiones y comportamientos maníacos como hiperactividad, hipersensibilidad a la anfetamina y ritmos circadianos anormales”, subraya el experto.

Un análisis más detallado con ensayos bioquímicos y electrofisiológicos indicó que las neuronas de estos ratones tienen una actividad eléctrica anormal debido a los cambios en las sinapsis.

Más tarde, los científicos identificaron dos pacientes humanos con trastornos neuropsiquiátricos, uno bipolar y el otro con TDAH, que tenían duplicaciones en la región cromosómica que contiene SHANK3.

Más allá de la simple determinación de los síntomas asociados con la sobreexpresión de SHANK3, este estudio sugiere los cambios moleculares y celulares que conducen al desarrollo de la conducta maníaca y quizás al trastorno bipolar.

El trabajo identifica tratamientos que podrían ser de utilidad para las personas con trastornos neuropsicológicos relacionados con la sobreexposición de SHANK3.

Los autores evaluaron los efectos de los estabilizadores del humor en estos modelos de ratón y observaron que el valproato (un ácido graso con capacidades anticonvulsivas), pero no el litio, es capaz de revertir el comportamiento maníaco.

“Estos resultados mejoran la comprensión de los mecanismos que contribuyen a estos trastornos neuropsicológicos y el tipo de tratamientos que podrían ser apropiados”, concluye Zoghbi. “Esta clase de análisis serán cruciales en el futuro para la selección apropiada de terapias para dichos trastornos”. (Fuente: SINC)

[Img #16257]

Mala reparación de daños en el ADN, ¿la causa de la esclerosis lateral amiotrófica?

La esclerosis lateral amiotrófica, una dolencia degenerativa neuromuscular, conocida también como enfermedad de Lou Gehrig, y que está relacionada con la enfermedad neuronal motora que padece el famoso físico Stephen Hawking, es una afección neurodegenerativa que destruye las neuronas encargadas de controlar los movimientos de los músculos. No hay todavía una cura para la esclerosis lateral amiotrófica, que mata a la mayoría de pacientes de tres a cinco años después de que aparezcan los primeros síntomas, y se trata de una enfermedad más común de lo que podría parecer: Sólo en Estados Unidos unos 5.600 nuevos casos se diagnostican cada año.

Un equipo de neurocientíficos del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha encontrado nuevos indicios de que un fallo al reparar ADN dañado subyace en el origen de la esclerosis lateral amiotrófica, y quizá también en el de otras dolencias neurodegenerativas como por ejemplo el Mal de Alzheimer.

Lo descubierto en el nuevo estudio implica que los fármacos que refuerzan la capacidad de reparar ADN en las neuronas podrían ayudar a los pacientes de esclerosis lateral amiotrófica, tal como argumenta Li-Huei Tsai, directora del Instituto Picower para el Aprendizaje y la Memoria, adscrito al MIT, y coautora del estudio en el que se ha hecho este prometedor hallazgo.

Las neuronas figuran entre las células del cuerpo humano que más tiempo viven. Mientras que otras células son reemplazadas a menudo, por regla general muchas de nuestras neuronas se conservan a lo largo de toda nuestra vida. En consecuencia, las neuronas pueden acumular muchos daños en el ADN y debido a ello son especialmente vulnerables a los problemas derivados de tales daños, sobre todo si las reparaciones del ADN no se efectúan correctamente por algún motivo.


Nuestro genoma está sufriendo daños de manera constante, y las rupturas en las hebras del ADN son cotidianas. Afortunadamente, esto no es un problema serio porque tenemos en nuestro interior la maquinaria necesaria para repararlas. Pero si esta maquinaria de reparación no funciona del todo bien, las neuronas acaban siendo las células más perjudicadas.

La HDAC1 es una enzima que regula los genes al modificar la cromatina, la cual consiste en ADN enrollado alrededor de un núcleo central de proteínas llamadas histonas. La actividad normal de la HDAC1 hace que el ADN se enrolle más prietamente alrededor de las histonas, impidiendo la expresión génica. Sin embargo, las células, incluyendo a las neuronas, también explotan la capacidad de la HDAC1 para tensar la cromatina a fin de estabilizar las puntas de cadenas de ADN roto y promover su reparación.

La HDAC1 trabaja cooperativamente con una enzima llamada sirtuína 1 (SIRT1) para reparar el ADN e impedir la acumulación de daños que podría ser un detonante de la neurodegeneración.

Cuando una neurona sufre rupturas de doble hebra, la SIRT1 migra en pocos segundos a los sitios dañados, donde recluta con suma rapidez a la HDAC1 y a otros factores de reparación. La SIRT1 también estimula la actividad enzimática de la HDAC1, ayudando a que las puntas rotas del ADN vuelvan a sellarse.

La SIRT1 ha ganado notoriedad recientemente como la proteína que promueve la longevidad y brinda protección contra enfermedades entre las que se incluyen la diabetes y el Mal de Alzheimer. El grupo de Tsai cree que el papel de esta proteína en la reparación del ADN contribuye significativamente a esos efectos beneficiosos.


En un intento para identificar más sustancias que trabajan junto a la HDAC1 en la reparación del ADN, Tsai y sus colegas centraron su atención en una proteína llamada FUS (por las siglas del inglés Fused In Sarcoma). El gen FUS correspondiente está en una de las posiciones más comunes para mutaciones que causan las formas hereditarias de la esclerosis lateral amiotrófica.

El equipo de Tsai, Wen-Yuan Wang y Ling Pan encontró que la FUS aparece rápidamente en escena cuando se daña el ADN, lo que sugiere que la FUS es quien orquesta la respuesta reparadora. Una de sus funciones es reclutar a la HDAC1 para que actúe en el sitio donde el ADN ha sido dañado. Sin ella, la HDAC1 no aparece y la reparación necesaria no se lleva a término. Tsai cree que la FUS también podría estar involucrada en la detección rápida de daños en el ADN.

Se han encontrado al menos 50 mutaciones en el gen FUS que causan esclerosis lateral amiotrófica. La mayoría de estas mutaciones tiene lugar en dos secciones de la proteína FUS. El equipo del MIT realizó un mapa de las interacciones entre FUS y HDAC1, y encontró que esas dos secciones de FUS se enlazan a HDAC1.

Los hallazgos hechos en esta investigación sugieren que los fármacos que promueven la reparación del ADN, incluyendo activadores de HDAC1 y SIRT1, podrían ayudar a combatir los efectos de la esclerosis lateral amiotrófica. Un prometedor grupo de activadores de SIRT1 está ya en una fase muy avanzada de diseño, y se ha comenzado a ponerlos a prueba en ensayos clínicos con miras a su posible uso futuro en el tratamiento de la diabetes.

domingo, 27 de octubre de 2013

Diseñan un mecanismo de voz para dar movimiento a prótesis de antebrazo


[Img #16280]

Especialistas de la UNAM (México), encabezados por José Abel Herrera Camacho, académico de la Facultad de Ingeniería (FI), desarrollan tecnología basada en inteligencia artificial para mejorar una prótesis para brazo, que puede ser manipulada por el usuario con el uso de la voz.

El brazo mecánico, destinado a mejorar la calidad de vida de los discapacitados, fue diseñado en el Departamento de Mecatrónica de esa entidad, a cargo de Manuel Dorador, pero fue el equipo del Laboratorio de Procesamiento de Voz, que dirige Herrera Camacho, el que elaboró el comando verbal para darle funcionamiento.

Las prótesis comerciales más avanzadas son controladas por impulsos eléctricos y sólo permiten determinados movimientos, en tanto, el mecanismo de los universitarios posibilitará actividades predeterminadas, como tomar una pluma y escribir o sujetar una taza con fuerza controlada.

Existen algunas que pueden ser dirigidas a través de una computadora, con la ayuda de la otra mano, pero ello representa ciertas molestias; otras pueden ser controladas a través de los nervios residuales que antes daban movimiento al brazo natural, sin embargo, en ocasiones éstos fueron dañados.

Ante esas situaciones, el equipo de la UNAM pensó en un prototipo que utilice la voz para realizar una serie de movimientos predeterminados, la tarea principal es que cuente con más movimientos. “Si la persona puede hablar, estará en posibilidad de dar indicaciones y la prótesis sabrá hasta qué punto imprimir fuerza, pues podemos calibrarla para que lo haga hasta determinado grado”, explicó Herrera Camacho.

El reconocimiento de voz se realiza mediante un procesador digital de señales (DSP, por las siglas de digital signal processor), que tarda 64 milisegundos (milésima fracción de un segundo) en reconocerlo. “En condiciones de laboratorio, con ruido de 20 decibeles, hemos logrado precisiones de 99 por ciento, aproximadamente”.

El DSP, detalló, es un micro controlador que en la prótesis haría la función equivalente a la del cerebro de una computadora.


La tecnología que los especialistas desarrollan –reconocimiento de voz y control de motores– también podría aplicarse en prótesis de miembros inferiores (pierna o pie), incluso en la industria para el control de motores ensambladores. “Además tiene aplicaciones en el hogar: para correr cortinas, prender luces y abrir puertas”, ejemplificó.

Los profesores de la Facultad de Ingeniería “no somos primariamente investigadores, pero no por esto dejamos de hacer investigación o desarrollo tecnológico; es parte de nuestra labor y una de las grandes fortalezas de la Universidad Nacional”, concluyó. (Fuente: UNAM/DICYT)

Nueva clase de cámara para captar imágenes fluorescentes de moléculas


[Img #16282]

La obtención de imágenes por fluorescencia es el método más utilizado para el análisis de la composición molecular de especímenes biológicos. Las moléculas que se pretende observar, cuando están presentes, pueden ser "marcadas" con una "etiqueta" fluorescente y de este modo se hacen lo bastante visibles.

Esta técnica de alta sensibilidad, que se utiliza en análisis de sangre para detectar células cancerosas y estudiar las reacciones bioquímicas, es muy buena para detectar moléculas presentes en concentraciones extremadamente bajas.

Sin embargo, debido a la muy pequeña cantidad de luz producida por las moléculas fluorescentes, las cámaras con la tecnología actual deben exponerse a esa tenue luz durante períodos prolongados de tiempo, a fin de recolectar suficientes fotones para generar una imagen. Además, estas cámaras suelen leer píxeles individuales de uno en uno para crear una imagen. Estos dos factores limitan la velocidad a la que se generan las imágenes por fluorescencia.

Inspirado por la forma en la que las redes de comunicación inalámbrica usan múltiples frecuencias de radio para comunicarse con múltiples usuarios, el equipo de Bahram Jalali, Eric Diebold, Brandon Buckley, y Daniel R. Gossett, de la Universidad de California en Los Ángeles (UCLA), ha desarrollado una nueva técnica de microscopía de alta velocidad que es un orden de magnitud más rápida que las tecnologías actuales para la obtención de imágenes por fluorescencia.


Mientras que las cámaras actuales forman imágenes de muestras fluorescentes píxel por píxel, la cámara creada por el equipo de la UCLA forma una imagen mediante la lectura de una fila completas de píxeles cada vez. Lo hace mediante la codificación de la fluorescencia de cada píxel en una frecuencia de radio diferente.
http://noticiasdelaciencia.com/not/8584/nueva_clase_de_camara_para_captar_imagenes_fluorescentes_de_moleculas/

El arte rupestre, ¿masculino o femenino?

Crear las primeras obras de arte rupestre fue uno de los cambios en la conducta de los humanos primitivos que más marcaron su transición desde lo que podríamos definir como bestias hacia lo que podríamos definir como personas.

Debido a que bastantes de esas obras de arte rupestre representan escenas de caza, se ha venido asumiendo que fueron creadas por hombres, al atribuírseles históricamente a estos una mayor actividad como cazadores que a las mujeres, y por tanto, se ha dado por supuesto que las huellas de palmas de manos que acompañan con bastante frecuencia a esas obras de arte rupestre fueron dejadas mayormente por hombres. Las huellas de manos más pequeñas se han venido atribuyendo a varones adolescentes.

Sin embargo, una investigación realizada recientemente por el antropólogo Dean Snow, de la Universidad Estatal de Pensilvania, en University Park, Estados Unidos, pone en duda esa autoría.

La clave de este estudio ha sido una técnica relativamente nueva para deducir el sexo de una persona solo por detalles anatómicos de sus manos. Snow se familiarizó con dicha técnica a partir del trabajo de John Manning, un biólogo británico que unos diez años atrás intentó servirse de las proporciones entre las medidas de dedos y de otras partes de la mano para determinar el sexo y otros rasgos de la persona. Snow se preguntó si sería factible aplicar este método para analizar las huellas de palmas de las manos dejadas en obras de arte rupestre de yacimientos prehistóricos humanos en España y Francia, dos naciones con algunos de los ejemplos más antiguos e impresionantes de arte rupestre.

Cuando Snow contempló una imagen de una huella de palma de mano en un libro sobre arte del Paleolítico Superior, se dio cuenta de que correspondía a una mano femenina. Una observación somera a otras cinco imágenes le permitió establecer que dos tercios de las huellas examinadas fueron dejadas por mujeres.
[Img #16284]Por desgracia, muchas fotografías de arte rupestre carecen de indicaciones precisas de tamaño, lo que hace difícil determinar los tamaños relativos de los rasgos de la mano para inferir el sexo de la persona que dejó la huella. Snow visitó diversas cuevas con arte rupestre y analizó también algunas imágenes de huellas de manos prehistóricas que sí cuentan con datos sobre tamaños. El antropólogo reunió además fotos detalladas de manos de personas actuales con ascendencia europea y mediterránea. 



El análisis detallado de toda la información reunida ofrece conclusiones llamativas y reveladoras: Solo el 10 por ciento de las huellas prehistóricas de palmas de manos en paredes de cuevas españolas y francesas fueron dejadas por hombres adultos. El 15 por ciento fueron dejadas por varones adolescentes. Y nada menos que el 75 por ciento restante corresponde a mujeres. El hallazgo lleva a plantearse que muy probablemente el resto de obras de arte rupestre que no consisten en estos "autorretratos parciales" fueron también creadas en su mayor parte por mujeres. Aunque esto constituye una sorpresa debido al fuerte arraigo tradicional de esa idea de que los autores típicos del arte rupestre eran hombres, no resulta extraño, ya que encaja con la idea antropológica cada vez más aceptada de que en la prehistoria la mujer poseía una destreza manual mucho mayor que la del hombre y que eso tuvo consecuencias importantes. En ese sentido, es más probable que la primera hacha de sílex no la construyera un hombre sino una mujer.
http://noticiasdelaciencia.com/not/8587/el_arte_rupestre___masculino_o_femenino_/

Descubren un impresionante caracol con concha semitransparente a un kilómetro bajo tierra


[Img #16285]

Se ha descubierto y descrito científicamente una nueva y peculiar especie de caracol, adaptada para la vida en cuevas. El caracol fue encontrado en uno de los 20 sistemas de cuevas más profundos del mundo, el de Lukina Jama-Trojama, en Croacia.

La nueva especie descubierta pertenece a un género de diminutos caracoles terrestres que respiran aire pero que perdieron su capacidad de orientarse visualmente por el entorno. A los caracoles de este género se les considera verdaderos moradores exclusivos de cavernas.

La nueva especie Zospeum tholussum es un frágil y diminuto caracol, con una hermosa concha transparente en forma de domo. Un solo espécimen fue hallado en esta expedición por las galerías del sistema de cuevas de Lukina Jama-Trojama. El animal fue hallado a una profundidad de 980 metros, en una cámara sin nombre, llena de rocas y arena, con un pequeño arroyo que la atraviesa.

La investigación ha culminado con la descripción científica realizada por Alexander M. Weigand, del Instituto de Ecología, Evolución y Diversidad adscrito a la Universidad Goethe en Frankfurt, Alemania. Weigand es también miembro de la Sociedad Bioespeleológica Croata, con sede en Zagreb, Croacia.

Todas las especies conocidas del género Zospeum poseen una limitada capacidad para moverse. Su necesidad de permanecer en un hábitat fangoso, y el hecho de que prefieren usualmente vivir cerca del sistema de drenaje de su cueva, muy cerca del flujo de agua, sugieren que estos animales no necesariamente permanecen siempre en la misma zona en la que nacen.

Los científicos creen que la dispersión de estos caracoles a distancias relativamente grandes se logra por su transporte pasivo en la corriente de agua o en animales más grandes que se desplazan por la zona.


El sistema de cuevas de Lukina Jama-Trojama es el más profundo de Croacia, y resulta extraordinario por su forma vertical, sus pozos muy hondos y su gran profundidad de 1392 metros. Desde un punto de vista ecológico, este sistema de cuevas es en extremo interesante por tener tres capas microclimáticas: En primer lugar, la helada franja de entrada, con temperaturas de alrededor de 1 grado centígrado. En segundo lugar, una parte media con temperaturas de hasta 2 grados. Y por último, la zona inferior, con temperaturas de hasta 4 grados.

Estas condiciones ambientales dan forma a ecosistemas inusuales, y hacen al sistema de cuevas extremadamente interesante para los científicos desde el punto de vista de la biodiversidad.

http://noticiasdelaciencia.com/not/8588/descubren_un_impresionante_caracol_con_concha_semitransparente_a_un_kilometro_bajo_tierra/

jueves, 24 de octubre de 2013

10 curiosidades sobre el chocolate

El árbol del cacao es original de los valles fluviales de Sudamérica, aunque  posteriormente fue llevado a México por los mayas antes del siglo VII.
El cacao es un fruto contenido en vainas de entre 20 y 30 granos que tienen forma de almendra, con unos 2 centímetros de largo.
La chocolatera, esa máquina que permitía batir el chocolate mientras se fundía con el calor formando tan ansiado líquido espumoso, se introdujo en Europa a través de la corte francesa. De hecho fue María Teresa de Austria, esposa de Luis XIV quien comenzó a usarla a comienzos del siglo XVII provocando que en los años sucesivos el resto de las clases adineradas del viejo continente la usaran para conseguir chocolate en su punto perfecto de calor y cremosidad.
Colón fue el primer europeo que conoció el arbol del cacao cuando en 1502 fue obsequiado en Guanaja, Honduras, con una especie de almendras que usaban como moneda los indígenas.
Existen tres tipos de cacao: el criollo  que es el que tomaba Moctezumay que actualmente es uno de los más escasos; el forastero que es el más cultivado; y el trinitario que es un cruce entre los dos anteriores. En la imagen, sección transversal del fruto de la planta del cacao.
A los coruñeses se les conoce como “cascarilleiros” debido a las cascarillas del cacao, pues los habitantes de esta ciudad, cuando comenzó el movimiento comercial alrededor del cacao, le sacaban partido culinariamente hasta a esa corteza amarga del fruto.
Algunos de los principales productores de cacao son Brasil, Indonesia, Ghana, Ecuador, Malasia, Camerún, Nigeria y Costa de Marfil, aunque se cultiva en muchas otras partes del mundo por la gran demanda que existe en los países desarrollados. Tal es así que ha traspasado el mundo culinario y, como se ve en la imagen, ha llegado hasta el mundo de la moda, con trajes que rozan el absurdo fabricados con este producto alimentario, como en este caso en el Salon du Chocolat, en Zurich de 2012.
Durante los siglos XVII y XVIII nacieron en Europa y Estados Unidos las primeras fábricas de chocolate de la historia. En nuestro país, la primera factoría chocolatera está datada en Barcelona en 1780.
Según los últimos datos de consumo de chocolate, cada español deglute alrededor de 3,5 kilos anuales de este alimento, una cantidad realmente baja si la comparamos con la media de otros países europeos que superan los 9 kilos de media al año.
El chocolate contiene ácido oxálico que, cuando se asocia con el cálcio lo “atrapa” formando oxalato cálcico que no puede ser asimilado en el proceso digestivo. De ahí que no se recomiende añadirlo a la leche de los niños en etapa de crecimiento, para que puedan asimilar todo el calcio que necesitan.

La ESA pospone el lanzamiento de Gaia, el satélite que censará mil millones de estrellas

La Agencia Espacial Europea (ESA) ha aplazado el  lanzamiento del satélite Gaia, que estaba previsto para el 20 de Noviembre de 2013. Tomaron esta decisión en la tarde del martes tras detectar un problema técnico en otro satélite ya en órbita, según ha informado la ESA en un comunicado.

El satélite Gaia comparte con ese satélite algunos de los componentes implicados en la incidencia técnica. Sin embargo, su detección ha permitido a los ingenieros que trabajaban en la preparación de Gaia tomar medidas de precaución adicionales.
Los componentes afectados se usan en dos transpondedores de Gaia que serán reemplazados para evitar posibles problemas. Así, los devolverán de Kourou a Europa para sustituirlos y verificarlos. Después de esta operación los transpondedores se reinstalarán en Gaia y se hará un prueba de verificación final.
Por esta razón la ESA ha decidido no lanzar Gaia el próximo 20 de noviembre, pero está previsto lanzar el satélite en la próxima ventana de lanzamiento, que va del 17 diciembre al 5 de enero de 2014. La agencia espacial anunciará la nueva fecha de lanzamiento cuando conozcan el tiempo que necesitarán para la operación de sustitución de las piezas.

La misión Gaia: un mapa de la Vía Láctea

La misión Gaia tiene como objetivo crear un mapa tridimensional de la Vía Láctea, observando repetidamente más de mil millones de estrellas para determinar con precisión su posición y desplazamiento. Este proyecto también estudiará una serie de propiedades físicas de cada estrella, como su temperatura, luminosidad o composición química, según han explicado los responsables del proyecto.
El censo resultante permitirá a los astrónomos comprender mejor el origen y la evolución de la galaxia. Asimismo, Gaia desvelará cientos de miles de objetos desconocidos, tales como asteroides en nuestro propio Sistema Solar, planetas en órbita a estrellas cercanas y explosiones estelares -supernovas- en otras galaxias.
El director de Ciencia y Exploración Robótica de la ESA, Alvaro Giménez, ha explicado que "Gaia será la máquina de los descubrimientos de la ESA". "Revelará de qué está hecha y cómo se formó la Vía Láctea con un nivel de detalle sin precedentes, situando a Europa en la vanguardia de la astronomía de precisión", ha concretado. 

El lanzamiento ahora aplazado se realizará a bordo de un lanzador Soyuz de Arianespace desde el Puerto Espacial Europeo en Kourou (Guayana Francesa) y una vez en órbita, el satélite rotará lentamente sobre sí mismo, realizando un barrido de todo el firmamento con sus dos telescopios, que están equipados con la mayor cámara digital jamás lanzada al espacio -con más de mil millones de píxeles-.
En su órbita alrededor del Sol, Gaia medirá varias veces la posición de cada estrella, lo que le permitirá determinar su distancia a través de una técnica conocida como paralaje. Esta información, combinada con el resto de datos que tomará la misión, permitirá a los astrónomos reconstruir la historia de la Vía Láctea. Además, se espera que esta misión también descubra nuevos asteroides y planetas en órbita a otras estrellas.
Recreación artística del satélite Gaia.

El director del CERN: "La única forma de salir de la crisis es no recortar en investigación"

El representante de uno de los galardonados con el premio Príncipe de Asturias de Investigación 2013, el director general del Centro Europeo de Física de Partículas (CERN), Rolf-Dieter Heuer, ha manifestado en rueda de prensa en Oviedo, que la "única forma recuperarse de esta crisis y moderar una posible crisis futura" es "no recortar en la investigación".
Así, ha señalado que la investigación educa a los jóvenes y les proporciona la "base para el bienestar en los años venideros", por lo que "recortar en exceso en ciencia es recortar a largo plazo".
En este sentido también se han pronunciado los otros dos galardonados por el descubrimiento de una partícula subatómica que podría ser el bosón de Higgs, considerada clave para la comprensión del Universo. Aparte del Premio Príncipe de Asturias 2013, los científicos -sin el CERN- también han obtenido elPremio Nobel de Física 2013.

El investigador Peter Higgs ha apuntado que España, hace 30 años estaba "bastante por detrás de Europa en cuanto a apoyo a la ciencia", pero que en los últimos años se ha situado entre los países que están a la vanguardia. "Sería una pena que si descendiera el apoyo a la ciencia por problemas económicos [España] se quedará detrás de nuevo", ha sentenciado.
Por su parte, el investigador belga François Englert, ha indicado que si la ciencia fundamental y su aplicación "pierde importancia en general" y como sucede en muchos países, no se invierte en ella, no se daría la "creatividad suficiente" para desarrollarla. 

"La ciencia fundamental se expande mediante la educación y da a las personas la capacidad de acceder a la racionalidad", ha subrayado Englert, quien ha señalado que la ciencia elimina la barrera de la intolerancia y de "otro tipo de cosas que han sido negativas para Europa y también para países como España".

Participación española en el CERN

Respecto a la deuda del Gobierno español con el Laboratorio Europeo de Física de Partículas (CERN), que según se reveló en febrero ascendía a la mitad de la cuota de 2012 y la totalidad de 2013, Heuer ha manifestado que "España es un socio fiable del CERN" y que el Ministerio de Economía y otras instituciones están haciendo "todo lo que pueden para que se normalice la situación".

El director general del CERN ha afirmado que "hay un poco de retraso" con las cuotas, pero que no está insatisfecho con la situación entre el Ejecutivo español y el CERN. 

En el proyecto de Presupuestos Generales del Estado para 2014 de I+D+i, está previsto que el Gobierno destine al CERN 110,6 millones de euros, de los que 35,6 millones de euros se destinarán a la cobertura de cuotas pendientes.

Explicación del bosón de Higgs

Sobre la razón por la que Higgs, Englert y el CERN han recibido el Premio Príncipe de Asturias de Investigación 2013, el descubrimiento y experimentación del bosón de Higgs, el director general del CERN ha relatado que gracias al descubrimiento de una partícula subatómica que prácticamente se ha confirmado que podría ser el bosón de Higgs, "ahora sabemos por qué podemos existir".
Han descubierto una partícula subatómica compatible con el bosón de Higgs, una partícula elemental de la naturaleza propuesta en el Modelo Estándar de Física de Partículas, que es una teoría que describe las relaciones entre las interacciones fundamentales conocidas y las partículas elementales que componen toda la materia.
El resultado de los experimentos llevados a cabo en el CMS (un detector en el Gran Colisionador de Hadrones, el LHC) y ATLAS (otro de los experimentos que trabaja en la búsqueda del bosón de Higgs), en julio de 2012, fue preliminar. 

Según explica el CERN, el bosón vive muy poco antes de desintegrarse en "partículas ligeras y estables" que revelan sus propiedades. El modelo estándar predice la frecuencia y modo de desintegración del bosón.
En marzo de 2013 el CERN presentó nuevos resultados preliminares sobre la partícula encontrada en 2012. Los investigadores encontraron que la nueva partícula se parece cada vez más a un bosón de Higgs, ya que está asociada al mecanismo que da masa a partículas elementales.

Otros científicos en la teoría del bosón

La teoría sobre el bosón de Higgs empezó a perseguirse en 1964. Los investigadores que más han trascendido han sido Peter Higgs -que en repetidas ocasiones se ha mostrado en desacuerdo con llamar a la partícula subatómica bosón de Higgs-,François Englert y Robert Brout, investigador que falleció en 2011, aunque ha habido más científicos implicados en el desarrollo de esta teoría.
Preguntado por esos investigadores, el físico Peter Higgs ha explicado que se le atribuyó a él el reconocimiento por el desarrollo de la teoría en la difusión de una conferencia en 1972, un hecho que ha considerado "desafortunado" y cree que "es una pena" que el Comité de los Nobel no ampliase el reconocimiento al resto de investigadores.
A juicio de Englert, el Comité de los Nobel "tiene sus reglas", considera que ha decidido dar el premio a la parte teórica de la investigación y no a la experimental y no ha querido comentar nada más al respecto. 

domingo, 20 de octubre de 2013

Un nuevo empujón a la teoría de la Panspermia


Un nuevo empujón a la teoría de la Panspermia

La teoría de la Panspermia dice que los elementos básicos para el origen de la vida pudieron distribuirse por todo el Universo y llegar a la Tierra incrustados en una lluvia de meteoritos después de salir disparados al espacio desde otros planetas por el impulso de eventos colosales como gigantescas erupciones volcánicas o el choque con un asteroide. Esta controvertida hipótesis plantea numerosas dudas a los más escépticos, pero algunos científicos la abrazan con fervor. Un nuevo estudio presentado en el Congreso Europeo de Ciencias Planetarias, que se celebra estos días en Madrid, ahonda en esta posibilidad. Según los investigadores, en determinadas condiciones, existe una alta probabilidad de que la vida llegara nuestro planeta como una siembra cósmica. Habría ocurrido durante la infancia del Sistema Solar, cuando nuestro mundo y sus vecinos planetarios habitaban otras estrellas lo suficientemente cerca unos de otros como para poder intercambiar material sólido vía asteroides.
Según los autores, los resultados proporcionan un fuerte apoyo para la litopanspermia (del griego: lithos = piedra, pan = todo, esperma = origen). Una investigación anterior sobre este fenómeno había sugerido que la velocidad a la que los objetos podían recorrer el espacio hacía que la probabilidad de ser capturados por otro planeta fuera pequeña. Sin embargo, esta nueva investigación, basada en simulaciones por ordenador, sugiere la posibilidad de un proceso llamado transferencia débil, por el que objetos sólidos pueden deambular poco a poco fuera de la órbita de un cuerpo celeste, como un planeta, para terminar en la órbita de otro, aumentando las posibilidades de que este proceso dé lugar a un intercambio de elementos básicos para la vida o, quizás, incluso de microorganismos.

Un fenómeno muy probable

La investigación se basa en los principios desarrollados por el conocido matemático de la Universidad de Princeton Edward Belbruno. «Nuestro trabajo dice lo contrario de la mayoría de los trabajos anteriores», dice el científico. «La litopanspermia podría ser un fenómeno muy probable, y este puede ser el primer estudio que lo demuestra. Si este mecanismo es cierto, tiene implicaciones para la vida en el conjunto del Universo. Esto podría haber ocurrido en cualquier parte».
El equipo observó que las velocidades lentas ofrecen una muy alta probabilidad de intercambio de material sólido mediante la transferencia débil, y también encontró que el tiempo de este cambio puede ser compatible con el desarrollo real del Sistema Solar, así como con el momento de la primera aparición de la vida sobre la Tierra. Los investigadores creen que las formas básicas de la vida son lo suficientemente resistentes para sobrevivir a un viaje interestelar y al impacto final en un planeta.
El estudio muestra que el intercambio de material entre diferentes sistemas planetarios es probable, pero para que se realice de verdad, el material tiene que aterrizar en un planeta parecido a la Tierra donde la vida pueda prosperar. «Nuestro estudio no prueba que la litopanspermia que realmente sucedió, pero indica que se trata de una posibilidad abierta», indica Amaya Moro-Martín, del Centro de Astrobiología CSIC-INTA y la Universidad de Princeton.

impresion 3D en metal


Bisagra para la cubierta del motor de un Airbus A320 impresa en 3D, delante, y fabricada por métodos tradicionales, detrás

A estas alturas la mayoría hemos visto impresoras 3D fabricando figuras de plástico, piezas de plástico para otras impresoras, vasos, jarrones, etc. De hecho incluso circulaban por ahí unos planos para construir una pistola.

Pero la posibilidad de imprimir objetos metálicos, algo que ya se está haciendo, aunque sea a pequeña escala, tiene todos los visos de poder convertirse en una verdadera revolución en la forma en la que se fabrican ciertos objetos.

Capa a capa

El proceso comienza con el diseño de la pieza a imprimir usando un programa de diseño al uso. Estos planos son luego interpretados por otro programa que divide la pieza en capas horizontales de fracciones de milímetro, y esto es lo que se envía a la impresora.

La impresora tiene una cama sobre la que se deposita una fina capa de polvo metálico –que según sea la aplicación de la pieza será de un tipo u otro– y un potente láser o un haz de electrones se encargan de esculpir sobre esa capa capa de polvo la capa correspondiente de la pieza fundiendo unos gránulos metálicos con otro.

Terminada esa capa de la pieza se deposita otra capa de polvo metálico y se repite el proceso, y así hasta terminar la pieza. El polvo sobrante se elimina al final y puede ser utilizado para seguir fabricando más piezas.

Este proceso presenta muchas ventajas sobre métodos de fabricación tradicionales, pues entre otras cosas permite crear piezas sin juntas, lo que las hace más sólidas, al mismo tiempo que permite que sean más ligeras porque solo hay que usar el material necesario, sin añadidos, porque el proceso de fundición o moldeado por presión obligan a ello, por ejemplo.

Dejando una capa de polvo sin fundir entre capas sólidas, polvo que luego se elimina, se pueden fabricar conjuntos con partes móviles como por ejemplo un cojinete de bolas. Pero además, la impresión 3D permite también crear piezas con formas que serían sencillamente imposibles de fabricar por otros métodos.

Primeros pasos

Quedan aún detalles por pulir, como por ejemplo el hecho de que a veces se puedan quedar burbujas de aire en la pieza o que según qué tipos de acabados no se pueden conseguir, o el tamaño máximo de las piezas que se pueden imprimir por ahora, que ronda unos dos metros.

Pero General Electric está ya fabricando inyectores de combustible para su motor para aviones CFM International LEAP, que según GE son 25 veces más ligeros y cinco veces más duraderos que los fabricados por métodos tradicionales.

Un grupo de estudiantes de la Universidad de California en San Diego, por su parte, probaba hace poco un motor cohete impreso en 3D, por citar un par de ejemplos, mientras que Agencia Espacial Europea ha puesto en marcha el proyecto Amaze que tiene como objetivo desarrollar estas técnicas.

Otro aspecto en el que la impresión 3D puede suponer grandes cambios es en el de la distribución y logística: en un lugar aislado, con tal de tener una impresora 3D y el material en bruto necesario se podrían fabricar repuestos o suministros que hicieran falta sin depender de que nadie los haga llegar allí.

De hecho la NASA espera enviar en 2014 una impresora 3D a la Estación Espacial Internacional para probar estos conceptos, aunque será una impresora de plástico.

También habrá que tener en cuenta que una vez que con unos planos digitales y una impresora en 3D se puedan reproducir en cualquier sitio componentes de casi cualquier cosa se avivará el debate sobre las 'descargas de Internet'.

En cualquier caso, se avecinan sin duda tiempos interesantes en el campo de la producción industrial de muchas cosas.

¿Cómo se inventó la tirita?

La chispa para el nacimiento de la tirita, esa tira adhesiva por una cara con un apósito esterilizado en el centro que se coloca sobre heridas pequeñas para protegerlas, fue Josephine. Era la patosa esposa de Earle Dickson, un empleado de la compañía estadounidense de productos de higiene y sanitarios Johnson & Johnson.
Corría el año 1920 y la pareja de recién casados vivía en New Brunswick, en el estado de New Jersey. Earle trabajaba comprando el algodón para Johnson & Johnson y ella era ama de casa, no muy mañosa. A menudo sufría pequeños accidentes domésticos, sobre todo cocinando. Se hacia rozaduras, se quemaba o hacía pequeños cortes cuando preparaba algún guiso.
Él, preocupado por su amada, se dio cuenta de que los vendajes tradicionales eran grandes y aparatosos para heridas menores y entorpecían los movimientos de su esposa. Por eso, a partir de ellos, preparó lo que poco tiempo después se convertiría en la tirita. Cortó y dobló muchos trozos de gasa que pegó en el centro de una larga tira de esparadrapo que  cubrió, para evitar que se pegara a sí mismo, con tela de corpiño. Luego volvió a enrollar el apaño y lo dejó en el aseo junto a unas tijeras para que su mujer cortara lo que necesitaba en el momento de la cura.
Hombre poniéndose una tirita.

miércoles, 16 de octubre de 2013

Teoría celular

  1. Todos los seres vivos están formados por células o por sus productos de secreción. La célula es la unidad estructural de la materia viva, y dentro de los diferentes niveles de complejidad biológica, una célula puede ser suficiente para constituir un organismo.
  2. Las funciones vitales de los organismos ocurren dentro de las células, o en su entorno inmediato, controladas por sustancias que ellas secretan. Cada célula es un sistema abierto, que intercambia materia y energía con su medio. En una célula caben todas las funciones vitales, de manera que basta una célula para tener un ser vivo (que será un ser vivo unicelular). Así pues, la célula es la unidad fisiológica de la vida.
  3. Todas las células proceden de células preexistentes, por división de éstas (Omnis cellula ex cellula1 ). Es la unidad de origen de todos los seres vivos.
  4. Cada célula contiene toda la información hereditaria necesaria para el control de su propio ciclo y del desarrollo y el funcionamiento de un organismo de su especie, así como para la transmisión de esa información a la siguiente generación celular. Así que la célula también es la unidad genética.

Teoría de Oparin



La Teoría de Oparin fue comprobada experimentalmente en el 
año 1953 por Miller y Urey. Para ello, estos dos científicos 
diseñaron un aparato de laboratorio que simulaba las condiciones 
ambientales existentes en la Tierra hace más de 3500 millones de 
años. Este aparato consistía en un circuito cerrado en el que se 
distinguían dos partes. Una parte simulaba el agua de los océanos y 
la otra imitaba la composición gaseosa de la atmósfera primitiva. 
Miller y Urey hicieron circular vapor de agua a través de todo el 
circuito produciendo simultáneamente descargas eléctricas en el 
recipiente que contenía los gases. Al cabo del tiempo, en la zona 
con el agua resultante de la condensación, aparecieron algunos 
aminoácidos (componentes de las proteínas) y otros compuestos 
orgánicos.
El Experimento de Miller y Urey representó la primera 
demostración científica de que se podían formar espontáneamente 
moléculas orgánicas a partir de sustancias inorgánicas simples, en 
unas condiciones ambientales similares a las que describió Oparin 
para la Tierra primitiva.

El experimento de Redi


Francesco Redi, médico y experimentador, realizó un experimento en 1668 en el que colocó cuatro vasos en los que puso respectivamente un pedazo de serpiente, pescado, anguilas y un trozo de carne de buey. Preparó luego otros cuatro vasos con los mismos materiales y los dejó abiertos, mientras que los primeros permanecían cerrados herméticamente. Al poco tiempo algunas moscas fueron atraídas por los alimentos dejados en los vasos abiertos y entraron a comer y a poner huevos; transcurrido un lapso de tiempo, en esta serie de vasos comenzaron a aparecer algunas larvas. Esto no se verificó, en cambio, en los vasos cerrados, ni siquiera después de varios meses. Por tal motivo, Redi llegó a la conclusión que las larvas (gusanos) se originaban de las moscas y no por generación espontánea de la carne en descomposición.Redi realizó un segundo experimento: esta vez los vasos del experimento no fueron cerrados herméticamente, sino sólo recubiertos con gasa. El aire, por lo tanto, podía circular. El resultado fue idéntico al del anterior experimento, por cuanto la gasa, evidentemente, impedía el acceso de insectos a los vasos y la consiguiente deposición de los huevos, y en consecuencia no se daba el nacimiento de las larvas.


Con estas simples experiencias, Redi demostró que las larvas de la carne putrefacta se desarrollaban de huevos de moscas y no por una transformación de la carne. Los resultados de Redi fortalecieron la biogénesis teoría que sostiene que el origen de un ser vivo solamente se produce a partir de otro ser vivo.

TEORÍA DE LA GENERACIÓN ESPONTÁNEA



Uno de los hombres que se cuestionó el origen de la vida fue el filósofo griego Aristóteles, quien creía que la vida podría haber aparecido de forma espontánea. La hipótesis de la generación espontánea aborda la idea de que la materia no viviente puede originar vida por sí misma. Aristóteles pensaba que algunas porciones de materia contienen un "principio activo" y que gracias a él y a ciertas condiciones adecuadas podían producir un ser vivo. Este principio activo se compara con el concepto de energía, la cual se considera como una capacidad para la acción. Según Aristóteles, el huevo poseía ese principio activo, el cual dirigir una serie de eventos que podía originar la vida, por lo que el huevo de la gallina tenía un principio activo que lo convertía en pollo, el huevo de pez lo convertía en pez, y así sucesivamente.  También se creyó que la basura o elementos en descomposición podían producir organismos vivos, cuando actualmente se sabe que los gusanos que se desarrollan en la basura son larvas de insectos.  La hipótesis de la generación espontánea fue aceptada durante muchos años y se hicieron investigaciones alrededor de esta teoría con el fin de comprobarla. Uno de los científicos que realizó experimentos para comprobar esta hipótesis fue Jean Baptiste Van Helmont, quien vivió en el siglo XVII. Este médico belga realizó un experimento con el cual se podían, supuestamente, obtener ratones y consistía en colocar una camisa sucia y granos de trigo por veintiún días, lo que daba como resultado algunos roedores. El error de este experimento fue que Van Helmont sólo consideró su resultado y no tomo en cuenta los agentes externos que pudieron afectar el procedimiento de dicha investigación. Si este científico hubiese realizado un experimento controlado en donde hubiese colocado la camisa y el trigo en una caja completamente sellada, el resultado podría haber sido diferente y se hubiese comprobado que lo ratones no se originaron espontáneamente sino que provenían del exterior

martes, 15 de octubre de 2013

Los dispositivos móviles empiezan a ver en tres dimensiones 'de verdad'

Hace un par de años surgieron tablets y móviles con pantallas con efecto 3D similares a las utilizadas en los televisores, de modo que en ellos se podían reproducir vídeos y películas y visualizar juegos con imágenes en 3D. También algunos de esos dispositivos eran capaces de grabar vídeo y de tomar fotografías con efecto 3D gracias al uso de dos cámaras situadas en paralelo.

Pero si los televisores 3D fueron recibidos con frialdad por el público, aquellos dispositivos móviles ni siquiera fueron recibidos. Desaparecieron prácticamente antes de ponerse a la venta de forma masiva.
La cámara del móvil se convierte en un escáner 3D
Desde hace un tiempo, sin embargo, están surgiendo métodos y tecnologías que proporcionan visión tridimensional a los dispositivos móviles. No se trata únicamente de imagen con efecto 3D (como es el 3D de los televisores), sino que según el caso se trata de 3D 'real' en la que se captura y aprecia la profundidad de una escena y en la que el software 'entiende' la individualidad de los objetos y distingue los distintos planos. Dicho de otro modo: la cámara del móvil se convierte en un escáner 3D.

De la cámara del móvil a la impresora 3D

Que la cámara del móvil pueda 'entender' la tridimensionalidad del entorno amplía las aplicaciones y posibilidades de los juegos de realidad aumentada y de visualizar información e imágenes virtuales superpuestas en una imagen del mundo real. En un sentido más amplio supone un avance en la visión artificial y por extensión en el desarrollo de la inteligencia artificial y de la robótica.

Que la cámara del móvil sirva como un escáner 3D amplía aún más si cabe las posibilidades y aplicaciones de las impresoras 3D. Sobre el papel esta combinación permitiría capturar un objeto real con la cámara del teléfono móvil y reproducirlo físicamente en una impresora 3D que esté en el otro extremo del mundo. O incluso que esté fuera de este mundo.

Pero para que la cámara pueda funcionar como un escáner 3D tiene que entender la profundidad de la escena que está viendo. Esto puede hacerse solo por software, de forma un poco más tosca pero aprovechando las cámaras convencionales. O pueden emplearse cámaras polidióptricas capaces de capturar una misma imagen con diferentes puntos de enfoque simultáneamente, según la profundidad de la escena.

Recientemente Pelican Imagingfabricante de cámaras polidióptricas, mostró las posibilidades de esta tecnología en conjunción con la grabación de vídeo o de fotografías en secuencia para capturar una escena real desde todos sus ángulos. Se trata de capturar a una pareja de novios bailando en su boda para, a partir de la información capturada, imprimir una figura 3D de ellos con los que coronar la tarta. El vídeo promocional se puede ver en YouTube, tomándolo como una declaración de intenciones más que como una demostración de aplicación real. Aunque es verdad que ya hoy en día es posible imprimir esas figuras a partir de una fotografía.



Por otro lado Structure Sensor es un accesorio para móviles y tabletas que se acopla junto a la cámara del dispositivo. De este modo suministra información adicional a la imagen que captura la cámara del móvil, añadiendo la visión de infrarrojos (la cámara del móvil puede ver en la oscuridad) e información sobre la profundidad de la escena.

Según los desarrolladores de Structure Sensor es posible escanear una habitación completa recorriéndola con el sensor adaptado al móvil o a la tableta. También puede escanear objetos individuales y, al funcionar en combinación con la cámara convencional, capturar simultáneamente las texturas y los colores. El archivo resultante se puede visualizar y procesar co
n programas de CAD y 3D convencionales.