martes, 25 de noviembre de 2014

Nuevos datos sobre la naturaleza de la materia oscura

Los investigadores han logrado poner límites a las propiedades de una de las partículas candidatas a materia oscura: los axiones
UGR/DICYT Una investigación realizada por científicos de la Universidad de Granada puede contribuir a determinar la naturaleza de la materia oscura, uno de los mayores misterios de la Física que, como es sabido por sus efectos gravitatorios, constituye más del 80% de la masa del universo.

En un artículo publicado en la prestigiosa Physical Review Letters, Adrián Ayala y su directora de tesis Inmaculada Domínguez, ambos pertenecientes al grupo “FQM-292 Evolución Estelar y Nucleosíntesis” de la UGR, han logrado poner límites a las propiedades de una de las partículas candidatas a materia oscura: los axiones.

En este trabajo también han participado Maurizio Giannotti (Universidad de Barry, Estados Unidos), Alessandro Mirizzi (Deutsches Elektronen-Synchrotron, DESY, Alemania) y Oscar Straniero (Instituto Nacional de Astrofísica, INAF-Observatorio Astronómico de Teramo, Italia). Esta investigación es una muestra de la cada vez más intensa colaboración entre físicos de partículas y astrofísicos, que da lugar a una ciencia relativamente nueva: la denominada “física de astropartículas”.

En este trabajo, los científicos han utilizado las estrellas como laboratorios de física de partículas: a las altas temperaturas del interior estelar, los fotones pueden convertirse en axiones que escapan al exterior, llevándose energía.

“Esta pérdida de energía puede tener consecuencias, observables o no, en algunas fases de la evolución estelar”, explica Adrián Ayala. “En nuestro trabajo, hemos realizado simulaciones numéricas (por ordenador) de la evolución de una estrella, desde su nacimiento hasta que agota en su interior el hidrógeno y posteriormente el helio, incluyendo los procesos de producción de axiones”.

Los resultados indican que la emisión de axiones puede disminuir significativamente el tiempo de la combustión central de helio, la llamada fase HB (Horizontal Branch): la energía que se llevan los axiones se compensa con energía procedente de la combustión nuclear, consumiéndose el helio más rápidamente.

“Basándonos en esta influencia sobre los tiempos característicos de evolución, podemos acotar la emisión de axiones, ya que una emisión alta implica una fase HB rápida, disminuyendo la probabilidad de observar estrellas en esta fase”, afirma Inmaculada Dominguez.

Tasa máxima de emisión de axiones

La alta calidad de las observaciones recientes de cúmulos globulares permite contrastar los resultados de las simulaciones numéricas realizadas en este trabajo con los datos. “Comparando el número de estrellas observadas en la fase HB con el número de estrellas observadas en otra fase no afectada por los axiones, como la fase llamada RGB (Red Gian Branch), hemos estimado la tasa máxima de emisión de axiones.”

La producción de axiones depende de la constante de acoplamiento axión-fotón que caracteriza la interacción entre el axión y los fotones. “Hemos obtenido un límite máximo para esta constante que es el más restrictivo de los hallados hasta la fecha, tanto teórica como experimentalmente”, señalan los investigadores de la UGR.

Los autores de este trabajo apuntan que la precisión en la determinación de la constante de acoplamiento por el método utilizado “depende críticamente de la precisión con que se pueda estimar el contenido de helio inicial de las estrellas del cúmulo globular”.

Referencia bibliográfica 

Revisiting the Bound on Axion-Photon Coupling from Globular Clusters
Adrián Ayala, Inma Domínguez, Maurizio Giannotti, Alessandro Mirizzi y Oscar Straniero
Phys. Rev. Lett. 113, 191302 – noviembre, 2014
El artículo completo está disponible en el siguiente enlace: http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.113.191302

¿Por qué el universo no colapsó tras el Big Bang?

Los estudios de la partícula de Higgs – descubierta en el CERN en 2012 y responsable de dar masa a todas las partículas – han sugerido que la producción de partículas de Higgs durante la expansión acelerada del universo muy temprano (inflación) debería haber dado lugar a la inestabilidad y el colapso.

¿Por qué el universo no colapsó tras el Big Bang?
¿Por qué el universo no colapsó tras el Big Bang?
Los científicos han estado tratando de averiguar por qué no sucedió ese escenario, lo que ha dado lugar a teorías que sugieren que debe de haber alguna nueva teoría física que ayudará a explicar los orígenes del universo; sin embargo, un equipo de físicos del Imperial College de Londres, y de las universidades de Copenhague y Helsinki, cree que hay una explicación más simple.
En un nuevo estudio publicado en la revista Physical Review Letters, el equipo describe cómo la curvatura del espacio-tiempo – en efecto, la gravedad – proporciona la estabilidad necesaria para que el universo sobreviviera la expansión en el período inflacionario. El equipo investigó la interacción entre las partículas de Higgs y la gravedad, teniendo en cuenta la forma en que podría variar con la energía.
Así, muestran que incluso una pequeña interacción habría sido suficiente para estabilizar el universo.
“El Modelo Estándar de la física de partículas, que los científicos utilizan para explicar las partículas elementales y sus interacciones, hasta el momento no ha proporcionado una respuesta de por qué el universo no se derrumbó tras el Big Bang”, explica el profesor Arttu Rajantie, del Departamento de Física del Imperial College de Londres.
“Nuestro estudio investiga el último parámetro desconocido en el Modelo Estándar – la interacción entre la partícula de Higgs y la gravedad. Ese parámetro no se puede medir en experimentos con aceleradores de partículas, pero tiene un gran efecto en la inestabilidad de Higgs durante la inflación. ¡Incluso un valor relativamente pequeño es suficiente para explicar la supervivencia del universo sin ninguna nueva física! “
El equipo planea continuar su investigación con observaciones cosmológicas para estudiar la interacción con más detalle y explicar el efecto que habría tenido en el desarrollo de los inicios del universo. En particular, utilizarán los datos de las misiones de la Agencia Espacial Europea, actuales y futuros, de mediciones de la radiación del fondo cósmico de microondas y las ondas gravitacionales.
“Nuestro objetivo es medir la interacción entre la gravedad y el campo de Higgs utilizando datos cosmológicos,” dice el profesor Rajantie. “Si somos capaces de hacer eso, habremos encontrado el último número desconocido en el Modelo Estándar de la física de partículas y estaremos más cerca de responder a las preguntas fundamentales acerca de cómo estamos aquí”.
Estudio: M. Herranen, T. Markkanen, S. Nurmi, and A. Rajantie. Spacetime Curvature and the Higgs Stability During InflationPhys. Rev. Lett.113, 211102, doi: 10.1103/PhysRevLett.113.211102.

Sorprendente alineación de cuásares a través de miles de millones de años luz

Nuevas observaciones del telescopio VLT (Very Large Telescope) de ESO, en Chile, han revelado la existencia de alineaciones de las estructuras más grandes jamás descubiertas en el universo. Un equipo europeo de investigación ha descubierto que los ejes de rotación de los agujeros negros supermasivos centrales, en una muestra de cuásares, son paralelos entre sí a distancias de miles de millones de años luz. El equipo también ha desvelado que los ejes de rotación de estos cuásares tienden a alinearse con las vastas estructuras de la red cósmica en la que residen.

Esta ilustración muestra, esquemáticamente, las misteriosas alineaciones entre los ejes de giro de los cuásares y las estructuras a gran escala en las que habitan, reveladas por las observaciones llevadas a cabo con el telescopio VLT (Very Large Telescope) de ESO. Estas alineaciones se dan a distancias de miles de millones de años luz y son las alineaciones más grandes conocidas en el universo. Crédito: ESO/M. Kornmesser
Esta ilustración muestra, esquemáticamente, las misteriosas alineaciones entre los ejes de giro de los cuásares y las estructuras a gran escala en las que habitan, reveladas por las observaciones llevadas a cabo con el telescopio VLT (Very Large Telescope) de ESO. Estas alineaciones se dan a distancias de miles de millones de años luz y son las alineaciones más grandes conocidas en el universo. Crédito: ESO/M. Kornmesser
Un equipo liderado por Damien Hutsemékers, de la Universidad de Lieja (Bélgica), utilizó el instrumento FORS, instalado en el VLT, para estudiar 93 cuásares que se sabía formaban grandes agrupaciones repartidas a lo largo de miles de millones de años luz, en un momento en el que el universo tenía alrededor de un tercio de su edad actual.
“La primera cosa extraña que percibimos fue que algunos de los ejes de rotación de los quásares se alinearan unos con respecto a otros — a pesar de que estos cuásares están separados por miles de millones de años luz,” dijo Hutsemékers.
El equipo fue más allá y estudió si los ejes de rotación estaban vinculados, no sólo a los demás, sino también a la estructura del universo a gran escala en aquel momento.
Cuando los astrónomos observan la distribución de las galaxias en escalas de miles de millones de años luz, ven que no están distribuidas uniformemente. Forman una red cósmica de filamentos y cúmulos alrededor de enormes espacios vacíos donde escasean las galaxias. Esta intrigante y hermosa composición de material se conoce como estructura a gran escala del universo.
Los nuevos resultados del VLT indican que los ejes de rotación de los cuásares tienden a ser paralelos a las estructuras a gran escala en las que se encuentran. Así que, si los quásares están en un filamento largo, los giros de los agujeros negros centrales apuntarán a lo largo del filamento. Los investigadores estiman que la probabilidad de que estas alineaciones sean simplemente fruto de la casualidad es de menos del 1%.
“Una correlación entre la orientación de los cuásares y la estructura a la que pertenecen es una importante predicción de modelos numéricos de evolución de nuestro universo. Nuestros datos proporcionan la confirmación de la primera observación de este efecto, a escala mucho mayor que lo que había sido observado hasta la fecha para las galaxias normales”, añade Dominique Sluse, del Instituto Argelander de Astronomía en Bonn (Alemania) y la Universidad de Lieja.
El equipo no podía ver directamente ni los ejes de rotación ni los chorros de los cuásares. En su lugar, se midió la polarización de la luz de cada cuásar y, para 19 de ellos, encontraron una señal significativamente polarizada. La dirección de esta polarización, combinada con otra información, podría utilizarse para deducir el ángulo del disco de acreción y, por lo tanto, la dirección del eje de giro del cuásar.
“Las alineaciones en los nuevos datos, en escalas incluso más grandes que las predicciones actuales de las simulaciones, pueden ser un indicio de que hay un ingrediente que falta en nuestros modelos actuales del cosmos”, concluye Dominique Sluse.
Este trabajo de investigación se ha presentado en el artículo titulado “Alignment of quasar polarizations with large-scale structures“, por D. Hutsemékers et al., que aparece en la revista Astronomy & Astrophysics del 19 de noviembre de 2014.
Fuente: ESO

martes, 11 de noviembre de 2014

Científicos logran hacer ratones transparentes

Científicos logran hacer ratones transparentes
Científicos del Instituto de Tecnología de California en Pasadena han hallado un modo de hacer traslúcidos a los ratones de laboratorio. Un avance que refieren los investigadores permitirá estudiar los órganos intactos, apostándole incluso a la eliminación de las células cancerígenas.
Antes de ser tratados con sustancias químicas los animales son sacrificados y se les despelleja, logrando hacer transparentes sus órganos internos pero no los huesos. El resultado luce como un bloque de gelatina en forma de roedor con los órganos sostenidos por tejidos conectivos y un gel utilizado en el procedimiento.
Los ratones son útiles para la investigación biomédica debido a que gran parte de su biología básica es similar a la de los seres humanos.
Los científicos habían logrado desde hace un siglo hacer los tejidos transparentes en cierta medida, y en años recientes se desarrollaron métodos nuevos. El año pasado, por ejemplo, provocó titulares una técnica que produjo cerebros traslúcidos de ratones. Esos tratamientos revelan muchos más detalles que las radiografías o tomografías. El nuevo método es el primero que logra hacer traslúcido todo el animal, dijeron los expertos.
53da9f74b46a9
Podría ser útil para trazar los detalles del sistema nervioso o detectar la propagación del cáncer en conejillos de indias, dijo Vivian Gradinaru, del Instituto Tecnológico de California, autora central de un informe que describe el trabajo. 
“Algún día podría ayudar a los médicos a analizar muestras de biopsias de seres humanos”, agrego.
El proceso requiere insertar una serie de sustancias químicas por medio de los vasos sanguíneos, como también otros pasajes en el cerebro y la médula espinal. Toma casi una semana crear un ratón transparente, dijo Gradinaru. Y para hacer transparentes a las ratas se necesitan unas dos semanas, agregó. 
ReferenciaCell

domingo, 9 de noviembre de 2014

Identifican un mecanismo clave de la regeneración muscular

Si bien se trata de un estudio de ciencia básica, los resultados del trabajo abren caminos para mejorar el tratamiento de distrofias musculares o prevenir incapacidad en ancianos, entre otras aplicaciones







Bruno Geller/AGENCIA CYTA-INSTITUTO LELOIR/DICYT Un trabajo internacional, del que participaron científicos argentinos, identificó un mecanismo biológico clave asociado con la regeneración muscular. El hallazgo podría en el futuro ayudar a mejorar la prevención y tratamientos de patologías que se caracterizan por el debilitamiento y degeneración de los músculos provocadas por traumatismos, distrofias musculares o el propio envejecimiento.

En estudios in vitro, los investigadores descubrieron que cierta región del receptor celular del canal de calcio es clave para que las células progenitoras musculares (MPCs por sus siglas en inglés) puedan repoblar músculos dañados. “Si esa región, llamada Cavβ, se encuentra en cantidades inapropiadas, el receptor no cumple su función necesaria para la contracción muscular y además se altera su posibilidad de regeneración”, explicó a la Agencia CyTA la doctora Claudia Hereñu, del Instituto de Investigaciones Bioquímicas La Plata, que depende del CONICET y la Universidad Nacional de La Plata.

El estudio fue liderado por el doctor Osvaldo Delbono, un médico argentino de la Universidad Wake Forest de Ciencias de la Salud, en Carolina del Norte, Estados Unidos.

En seres humanos cursando su proceso normal de envejecimiento, se ha observado la declinación en la fuerza contráctil absoluta del músculo. “A pesar de la importancia de la fuerza muscular en la prevención de incapacidad en los ancianos, los mecanismos biológicos, hasta el momento, son entendidos solo parcialmente”, explicó Hereñu.

La funcionalidad de la región Cavβ descripta en el estudio, creen los investigadores, podría ser un blanco para mejorar la regeneración muscular en diferentes patologías así como también en la vejez. “De todos modos, cabe aclarar que nuestro trabajo de laboratorio tiene que seguir avanzando para algún día transferir estos resultados a la medicina aplicada”, destacó Hereñu.

El trabajo fue publicado en la revista científica The Journal of Cell Biology.

El agua de la Tierra es más antigua que el Sol

El agua, además de haber sido crucial para el surgimiento de la vida en la Tierra, también es importante para evaluar la posibilidad de vida en otros planetas. La identificación de la fuente original de agua de la Tierra es clave para entender cómo surgen los ambientes favorables a la vida y la probabilidad de que exista fuera de la Tierra. Ahora, un nuevo estudio ha descubierto que gran parte del agua de nuestro Sistema Solar probablemente proviene de hielo que se formó en el espacio interestelar.




Ilustración del agua en nuestro Sistema Solar a través del tiempo, desde antes del nacimiento del Sol hasta la creación de los planetas. Crédito de la imagen: Bill Saxton, NSF/AUI/NRAO
Ilustración del agua en nuestro Sistema Solar a través del tiempo, desde antes del nacimiento del Sol hasta la creación de los planetas. Crédito de la imagen: Bill Saxton, NSF/AUI/NRAO
El agua se encuentra en todo nuestro Sistema Solar. No sólo en la Tierra, sino también en los cometas, las lunas heladas, y en las cuencas sombrías de Mercurio. Se ha encontrado agua en muestras de minerales provenientes de meteoritos, la Luna y Marte.
Los cometas y los asteroides, en particular, por ser objetos primitivos, proporcionan una “cápsula del tiempo” natural de las condiciones reinantes durante los primeros días de nuestro Sistema Solar. Sus hielos nos pueden revelar mucho sobre el hielo que rodeaba al Sol después de su nacimiento, cuyo origen ha sido hasta ahora un pregunta sin respuesta.
En su juventud el Sol estaba rodeado por un disco protoplanetario, una nebulosa solar de la que nacieron los planetas. Pero no ha estado claro si el hielo en este disco se originó a partir de la misma nube molecular interestelar de la que se originó el Sol, o si el agua interestelar se había destruido y se había vuelto a formar a partir de las reacciones químicas que ocurrieron en la nebulosa solar.
“¿Por qué esto es tan importante? Si el agua en los inicios del Sistema Solar provenía principalmente de hielo del espacio interestelar, es probable que la mayoría o todos los discos protoplanetarios alrededor de estrellas en formación tengan hielos similares junto con materia orgánica prebiótica contenida en dichos hielos, explica Conel Alexander, coautor del estudio. En cambio, si el agua del Sistema Solar primitivo fue resultado de procesos químicos locales durante el nacimiento del Sol, es posible que la abundancia de agua varíe considerablemente en la formación de los sistemas planetarios, lo que obviamente tiene implicaciones para la posibilidad de la aparición de la vida en otros lugares, añade Alexander.
Al estudiar la historia de los hielos de nuestro Sistema Solar los investigadores se centraron en el hidrógeno y el deuterio, su isótopo más pesado. Los isótopos son átomos de un mismo elemento que tienen el mismo número de protones, pero un número diferente de neutrones. La diferencia de masas entre los isótopos resulta en diferencias sutiles en su comportamiento durante las reacciones químicas. Como resultado, la relación de hidrógeno a deuterio en las moléculas de agua puede revelar las condiciones bajo las que se formaron dichas moléculas.
Por ejemplo, el hielo-agua interestelar tiene una alta proporción de deuterio a hidrógeno debido a las temperaturas muy bajas en la que se forma. Hasta ahora, no se sabía cuánto de este enriquecimiento de deuterio se eliminó por procesos químicos durante el nacimiento del Sol, o la cantidad de hielo de agua rico en deuterio que el Sistema Solar recién nacido fue capaz de producir.
Así, el equipo creó modelos que simulan un disco protoplanetario en el que todo el deuterio del hielo espacial ya se ha eliminado como producto del procesamiento químico, y el sistema tiene que volver a empezar “desde cero” en la producción de hielo con deuterio durante un período de millones de años. Así determinaron si el sistema puede llegar a las proporciones de deuterio a hidrógeno que se encuentran en las muestras de meteoritos, el agua del océano de la Tierra, y los cometas. Encontraron que esa proporción no se podía lograr, de ahí la conclusión de que el agua de nuestro Sistema Solar tiene su origen en el espacio interestelar y es anterior al nacimiento del Sol.
Nuestros resultados muestran que una fracción significativa del agua de nuestro Sistema Solar, el ingrediente más fundamental para el fomento de la vida, es más antigua que el Sol, lo que indica que en todos los sistemas planetarios jóvenes probablemente se pueda encontrar hielo interestelar con abundante materia orgánica, concluye Alexander.
Estudio: L. Ilsedore Cleeves, Edwin A. Bergin, Conel M. O’D. Alexander, Fujun Du, Dawn Graninger, Karin I. Öberg, and Tim J. Harries. The ancient heritage of water ice in the solar system. Science, 26 September 2014: Vol. 345 no. 6204 pp. 1590-1593 DOI: 10.1126/science.1258055.

Manto de invisibilidad utiliza lentes comunes

Quizá inspirados por la capa de invisibilidad de Harry Potter, los científicos han desarrollado varias maneras de ocultar los objetos de la vista, algunas simples y otras que involucran nuevas tecnologías. El esfuerzo más reciente, desarrollado en la Universidad de Rochester, no sólo supera algunas de las limitaciones de los dispositivos anteriores, sino que utiliza materiales de bajo costo y fácilmente obtenibles, en una configuración novedosa.

El estudiante de doctorado Joseph Choi con su manto de invisibilidad. Crédito: Universidad de Rochester
El estudiante de doctorado Joseph Choi con su manto de invisibilidad. Crédito: Universidad de Rochester
“Ha habido muchos enfoques de alta tecnología para la invisibilidad y la idea básica detrás de todos es tomar la luz y hacerla pasar alrededor de un objeto como que si no estuviera ahí, a menudo utilizando alta tecnología o materiales exóticos”, dijo John Howell, profesor de física en la Universidad de Rochester. Sin usar componentes especializados, Howell y el estudiante graduado estudiante Joseph Choi han desarrollado una combinación de cuatro lentes comunes que mantiene el objeto oculto a media que un espectador se mueve hasta varios grados de distancia de la posición de visualización óptima.
Muchos diseños de invisibilidad funcionan bien cuando se mira un objeto en línea recta, pero si se mueve el punto de vista aunque sea un poco, el objeto se hace visible, explicó Howell. Choi agregó que los dispositivos de invisibilidad anteriores también pueden causar que el fondo cambie drásticamente, por lo que es obvia la presencia del dispositivo de invisibilidad.
Para capturar un objeto sin perturbar el fondo, los investigadores determinaron el tipo de lente y la potencia necesaria, así como la distancia precisa de separación entre los cuatro lentes. Para probar su dispositivo, colocaron el objeto oculto frente de un fondo cuadriculado. Al mirar a través de las lentes y cambiar su ángulo de visión, moviéndose de lado a lado, el fondo cambió apropiadamente como si el dispositivo de invisibilidad no estuviera ahí. No había ninguna discontinuidad en las líneas de la cuadrícula detrás del objeto oculto, en comparación con el fondo, y el tamaño de los cuadros era el mismo que el del fondo.
Demostración de manto de invisibilidad. Crédito: Universidad de Rochester
Demostración de manto de invisibilidad. Crédito: Universidad de Rochester
En un nuevo artículo enviado para su publicación en la revista Optics Express y disponible en arXiv.org, Howell y Choi dan a conocer el formalismo matemático para este tipo de invisibilidad, que puede funcionar hasta en ángulos de 15 grados o más. Utilizan una técnica llamada matrices ABCD que describe la forma en que la luz se curva al pasar a través de lentes, espejos u otros elementos ópticos.
Aunque el dispositivo no es como la capa de invisibilidad de Harry Potter, Howell tiene algunas ideas acerca de sus posibles aplicaciones, incluyendo el uso de invisibilidad para permitir que un cirujano “vea a través de sus manos a lo que está operando”. Los mismos principios se podrían aplicar en los vehículos para que los conductores puedan ver a través de los puntos ciegos.
Para su manto de demostración, los investigadores utilizaron lentes acromáticas dobletes de 50mm con distancias focales f1 = 200 mm y f2 = 75mm. Crédito: Universidad de Rochester
Para su manto de demostración, los investigadores utilizaron lentes acromáticas dobletes de 50mm con distancias focales f1 = 200 mm y f2 = 75mm. Crédito: Universidad de Rochester
Para construir su propio manto Rochester, siga estos sencillos pasos:
1. Adquiera 2 juegos de 2 lentes con diferentes longitudes focales f1 y f2 (4 lentes en total, 2 con distancia focal f1, y 2 con distancia focal f2)
2. Separe las primera 2 lentes por la suma de sus distancias focales (Así la lente f1 es la primera, f2 es la segunda, y se separan por una distancia t1 = f1 + f2).
3. Haga lo mismo que en el paso 2 para las otras dos lentes.
4. Separe los dos conjuntos por por una distancia t2 = 2 f2 (f1 + f2) / (f1 – f2), de modo que las dos lentes f2 estén a una distancia t2.
NOTAS:
Las lentes acromáticas proporcionan una mejor calidad de imagen.
Las lentes de Fresnel se pueden utilizar para reducir la longitud total (2t1 + t2)
Las menores longitudes totales reducen los efectos de borde y aumentan la gama de ángulos.


Para hacer un manto más fácilmente, aunque menos ideal, puede intentar hacer un manto de 3 lentes como se describe en el estudio.
Estudio: Joseph S. Choi, John C. Howell. Paraxial Ray Optics CloakingarXiv:1409.4705 [physics.optics]

Gran avance en fusión nuclear

Buques, aeronaves, e incluso ciudades enteras podrían recibir su energía eléctrica de la fusión nuclear, mucho antes de lo que nos podríamos haber imaginado.

Imagen: Lockheed Martin
Imagen: Lockheed Martin
Eso es lo que ha dicho el gigante aeroespacial Lockheed Martin, que anunció el miércoles que un equipo de investigación ha encontrado una manera de hacer que un reactor de fusión nuclear sea diez veces más pequeño de lo que se creía posible.
Si la compañía está en lo cierto – cosa que algunos expertos dudan – el reactor sería lo suficientemente pequeño como para caber dentro de un remolque, y traería cambios dramáticos en la forma en que se produce y consume la energía eléctrica. Un reactor de 100 megavatios mediría únicamente 7 pies por 10 pies.
Como resultado del avance, Lockheed Martin prevé aviones que se alimenten por fusión, capaces de permanecer en el aire durante un año entero sin repostar. A más largo plazo, la compañía dice que la energía limpia de fusión podría frenar la contaminación ambiental, y brindar energía de bajo costo al mundo en desarrollo.
La fusión se considera más segura y más eficiente que la energía nuclear convencional. La energía no se genera por la colisión de átomos juntos, sino por su división. El material utilizado para alimentar las reacciones de fusión genera casi 10 millones de veces más energía que la misma cantidad de combustibles fósiles convencionales.
Muchos expertos han manifestado su escepticismo, debido a los pocos detalles que ha divulgado la compañía. Otros dudan del fundamento científico del avance, ya que en el pasado se ha explorado la fusión nuclear sin resultados positivos.
Lockheed ha anunciado que planea construir y probar la primera versión del reactor en menos de un año, y tener un prototipo listo en tan sólo cinco años.

Nuevo reto para detectar exotierras con imagen directa

Utilizando toda la capacidad del VLTI (Very Large Telescope Interferometer), un equipo internacional de astrónomos ha descubierto luz exozodiacal cerca de las zonas habitables de nueve estrellas cercanas. Se trata de luz estelar reflejada por el polvo creado tras la colisión de asteroides y la evaporación de cometas. En el futuro, la presencia de cantidades tan abundantes de polvo en las regiones interiores que rodean a algunas estrellas, podría representar un obstáculo a la hora de obtener imágenes directas de planetas como la Tierra.

En esta ilustración de un planeta imaginario alrededor de una estrella cercana, vemos el brillante resplandor de luz exozodiacal extendiéndose hacia arriba en el cielo e inundando la Vía Láctea. Se trata de luz estelar reflejada por el polvo caliente, creado por la colisión de asteroides y la evaporación de cometas. En el futuro, la presencia de estas gruesas nubes de polvo en las regiones interiores de tantas estrellas, puede representar un obstáculo a la hora de hacer imagen directa de planetas como la Tierra. Crédito: ESO/L. Calçada
En esta ilustración de un planeta imaginario alrededor de una estrella cercana, vemos el brillante resplandor de luz exozodiacal extendiéndose hacia arriba en el cielo e inundando la Vía Láctea. Se trata de luz estelar reflejada por el polvo caliente, creado por la colisión de asteroides y la evaporación de cometas. En el futuro, la presencia de estas gruesas nubes de polvo en las regiones interiores de tantas estrellas, puede representar un obstáculo a la hora de hacer imagen directa de planetas como la Tierra. Crédito: ESO/L. Calçada
Utilizando el VLTI (Very Large Telescope Interferometer) en el rango del infrarrojo cercano [1], este equipo de astrónomos observó 92 estrellas para investigar la luz exozodiacal proveniente del polvo caliente cercano a sus zonas habitables, combinando después los nuevos datos con observaciones anteriores [2]. La brillante luz exozodiacal, creada por los resplandecientes granos de polvo exozodiacal caliente o por el reflejo de la luz de las estrellas sobre estos granos, se observó en nueve de las estrellas seleccionadas.
En la Tierra, en lugares de cielos oscuros y limpios, la luz zodiacal parece un débil y blanco resplandor difuso que puede divisarse en el cielo nocturno al final del crepúsculo o antes del amanecer. Se origina por el reflejo de la luz solar sobre partículas diminutas y parece extenderse desde las cercanías del Sol. Esta luz reflejada no sólo se observa desde la Tierra, sino que puede observarse desde todo el Sistema Solar.
El resplandor que se observa en este nuevo estudio es una versión más extrema del mismo fenómeno. Aunque esta luz exozodiacal — luz zodiacal alrededor de otros sistemas estelares — había sido detectada previamente, este es el primer estudio sistemático a gran escala de este fenómeno alrededor de estrellas cercanas.
En contraste con observaciones anteriores, el equipo no observó polvo que en un futuro acabará formando planetas, sino que observó el polvo creado por las colisiones entre planetas pequeños, de unos pocos kilómetros de tamaño — objetos llamados planetesimales, similares a los asteroides y cometas del Sistema Solar. Este tipo de polvo también es el origen de la luz zodiacal en el Sistema Solar.
“Si queremos estudiar la evolución de planetas similares a la Tierra cercanos a la zona de habitabilidad, tenemos que observar el polvo zodiacal en esas regiones alrededor de otras estrellas”, afirma Steve Ertel, autor principal del artículo e investigador de ESO y de la Universidad de Grenoble (Francia). “La detección y caracterización de esta clase de polvo alrededor de otras estrellas es una forma de estudiar la arquitectura y la evolución de sistemas planetarios”.
Para poder detectar el polvo (que emite muy débilmente) cerca de la deslumbrante estrella central, es necesario llevar a cabo observaciones de alta resolución con alto contraste. La interferometría — que combina la luz recogida exactamente al mismo tiempo por varios telescopios diferentes — con luz infrarroja es, hasta ahora, la única técnica que permite descubrir y estudiar este tipo de sistemas.
Utilizando las capacidades del VLTI y llevando el instrumento a sus límites (en términos de precisión y eficiencia), el equipo fue capaz de alcanzar un nivel de rendimiento diez veces mejor que el de otros instrumentos disponibles en el mundo.
Para cada una de las estrellas, el equipo utilizó los telescopios auxiliares de 1,8 metros para proporcionar luz al VLTI. Allí donde se encontraba fuerte luz exozodical, fueron capaces de resolver por completo los extensos discos de polvo y separar su débil resplandor de la luz dominante de la estrella [3].
Analizando las propiedades de las estrellas rodeadas por un disco de polvo exozodiacal, el equipo descubrió que la mayoría del polvo detectado se encontraba alrededor de las estrellas más viejas. Este sorprendente resultado plantea algunas preguntas relacionadas con nuestra comprensión de los sistemas planetarios. Se sabe que cualquier producción de polvo conocida, causada por las colisiones de planetesimales, debe disminuir con el tiempo, ya que se reduce el número de planetesimales a medida que son destruidos.
La muestra de objetos observados también incluyó 14 estrellas en torno a las cuales se han detectado exoplanetas. Todos estos planetas están en la misma región del sistema en la que se encuentra el polvo en los sistemas que presentan luz exozodiacal. La presencia de la luz exozodiacal en sistemas con planetas puede suponer un problema para futuros estudios astronómicos de exoplanetas.
La emisión de polvo exozodiacal, incluso a niveles bajos, hace mucho más difícil la detección de planetas similares a la Tierra con imagen directa. La luz exozodiacal detectada en este estudio es un factor 1.000 veces más brillante que la luz zodiacal vista alrededor del Sol. El número de estrellas que contengan luz zodiacal a los niveles del Sistema Solar es probablemente mucho mayor que los números que arroja el sondeo. Estas observaciones son sólo un primer paso para estudios más detallados de la luz exozodiacal.
“El alto porcentaje de detección a este nivel tan brillante, sugiere que debe haber un importante número de sistemas que contengan polvo más débil, imperceptible en nuestros sondeos, pero mucho más brillante que el polvo zodiacal del Sistema Solar”, explica Olivier Absil, coautor del artículo e investigador de la Universidad de Lieja. “La presencia de este polvo en muchos sistemas podría ser un obstáculo para futuras observaciones que tengan como objetivo hacer imágenes directas de exoplanetas tipo Tierra”.
Notas
[1] El equipo utilizó el instrumento visitante PIONIER, instalado en el VLTI, que es capaz de conectarse interferométricamente a cuatro telescopios auxiliares o a los cuatro Telescopios Unitarios del VLT, en el Observatorio Paranal. Esto proporcionó, no solo una resolución extremadamente alta de los objetos observados, sino que también permitió una alta eficiencia de las observaciones.
[2] Anteriormente, se llevaron a cabo observaciones con el conjunto CHARA — un interferómetro óptico operado por el CHARA (Center for High Angular Resolution Astronomy, centro para la gran resolución angular) de la Universidad Estatal de Georgia— y su combinador de haz de fibras FLUOR.
[3] Como subproducto, estas observaciones también han contribuido al descubrimiento de nuevas e inesperadas compañeras estelares que orbitan alrededor de algunas de las estrellas más masivas de la muestra. “Estas nuevas compañeras sugieren que debemos revisar nuestra comprensión actual sobre cuántas de estas estrellas son, en realidad estrellas dobles”, concluye Lindsay Marion, autora principal de un artículo científico adicional, centrado en este trabajo complementario, utilizando los mismos datos.
Fuente: ESO

Los viajes internacionales, canal de entrada de bacterias transmitidas por alimentos







Investigadores castellano leoneses han analizado la presencia de agentes patógenos en alimentos decomisados en las fronteras europeas
Cristina G. Pedraz/DICYT Las enfermedades transmitidas por los alimentos, como la salmonella o la listeria, son una amenaza para la salud pública a nivel mundial debido a su alta prevalencia y a los costes asociados a su tratamiento. Se estima que hasta un 30 por ciento de la población que vive en los países industrializados sufre alguna enfermedad transmitida por los alimentos cada año y que el coste sanitario asociado, en el caso de Estados Unidos, se acerca a los 77.700 millones de dólares anuales.

En el marco del proyecto del VII Programa Marco de la Unión Europea Promise-NET, investigadores del Instituto Tecnológico Agrario de Castilla y León (Itacyl), la Universidad de Burgos, la Universidad de Medicina Veterinaria de Viena (Austria), el Federal Institute for Risk Assessment de Alemania, el Complejo Asistencial Universitario de León y el Instituto de Biomedicina (Ibiomed) de la Universidad de León han analizado la presencia de agentes patógenos en alimentos decomisados en las fronteras europeas.

Uno de los trabajos enmarcados en este proyecto se ha centrado en estudiar los alimentos de origen animal confiscados a los pasajeros de vuelos procedentes de fuera de la Unión Europea en el aeropuerto internacional de Bilbao, entre abril de 2012 y junio de 2013. Los resultados de este estudio se han publicado en la revista científica ‘International Journal of Food Microbiology’.

Como detallan los investigadores encabezados por David Rodríguez Lázaro, las pruebas se han centrado en los cuatro principales agentes patógenos notificados con mayor frecuencia en la UE: Campylobacter, Salmonella spp., Escherichia coli enterohemorrágica (ECVT) y Listeria monocytogenes. De un total de 200 muestras de alimentos de origen animal decomisados, 20 fueron positivas para Listeria monocytogenes (el 10 por ciento de total) y 11 para Salmonella spp. (5’5 por ciento), mientras que no se detectó Campylobacter spp. y E. coli en ninguna muestra.

El equipo de científicos también analizó la resistencia a antibióticos por parte de estas bacterias positivas (Listeria monocytogenes y Salmonella spp.) y comprobó que fue alta, especialmente para clindamicina y daptomicina (más del 95 por ciento de los aislamientos). “Estos resultados indican que las muestras de alimentos importados por los viajeros en sus equipajes personales pueden albergar los genotipos más prevalentes de L. monocytogenes genotipos y los serotipos de Salmonella spp, responsables de brotes de origen alimentario en todo el mundo”, aseguran. 

Así, los viajes internacionales “pueden jugar un papel importante en la prevalencia y la difusión de clones exitosos de bacterias patógenas transmitidas por los alimentos”, de modo que el monitoreo continuo de los movimientos internacionales “es de importancia para comprender mejor la evolución clonal y la aparición y difusión de los linajes de éxito”.

Los investigadores recuerdan que la fuente potencial de agentes patógenos transmitidos por alimentos es cada vez mayor, ya que existen canales “olvidados” de transmisión (por ejemplo, rutas transfronterizas). Estos productos peligrosos pueden enviarse también por correo o llevarse en el equipaje en forma de partidas personales que contengan carne, leche o productos derivados. Como resultado, la comercialización de alimentos no autorizados que no ha pasado los controles adecuados “constituye una ruta descuidada de transmisión de patógenos de origen alimentario”.

Promise-NET

El proyecto Promise-NET tiene una duración de tres años, entre 2012 y 2014, y un presupuesto global de tres millones de euros. Tiene entre sus fines evaluar las amenazas comunes de seguridad alimentaria y proteger a los consumidores europeos. El proyecto tiene la peculiaridad de englobar a seis países miembros tradicionales de la Unión Europea (Austria, Alemania, Reino Unido, Gracia, Irlanda y España), a otros seis de reciente incorporación (Eslovenia, República Checa, Eslovaquia, Rumanía, Croacia y Hungría) y a otros candidatos que prevén integrarse en un futuro más o menos cercano (como Turquía). El único socio español es la Universidad de Burgos.



Referencia bibliográfica:
Rodríguez-Lázaro, D., Ariza-Miguel, J., Valcarce, M. D., Stessl, B., Beutlich, J., Fernández-Natal, I., ... y Rovira, J. (2014). “Identification and molecular characterization of pathogenic bacteria in foods confiscated from non-EU flights passengers at one Spanish Airport”. International Journal of Food Microbiology.

Los chimpacés son inherentemente agresivos, dice estudio

De todas las especies, los humanos y los chimpancés son de las pocas capaces de participar en ataques coordinados contra otros miembros de su misma especie. Desde el reporte inicial de Jane Goodall sobre la ocurrencia de matanzas intercomunitarias, los primatólogos y antropólogos han debatido durante mucho tiempo el concepto de guerra entre el género. Las teorías de investigación han indicado que existen ganancias y beneficios que se obtienen al matar a los competidores, así como un mayor acceso a recursos clave como los alimentos o los compañeros. Por el contrario, otros han argumentado que la guerra es el resultado del impacto humano sobre los chimpancés, tales como la destrucción del hábitat o el aprovisionamiento de alimentos, en lugar de estrategias de adaptación.

Según un estudio hecho por una coalición internacional de investigadores, las agresiones entre chimpancés no son el resultado del impacto humano, sino de la agresividad inherente de éstos. Imagen de Dan Moutal (Flickr)
Según un estudio hecho por una coalición internacional de investigadores, las agresiones entre chimpancés no son el resultado del impacto humano, sino de la agresividad inherente de éstos. Imagen de Dan Moutal (Flickr)
Una nueva investigación de una coalición internacional de investigadores, publicada el 18 de septiembre en la revista Nature, ha arrojado nueva luz sobre el tema, que sugiere, a diferencia de lo que se había afirmado antes, que la invasión e interferencia por los humanos no son un predictor influyente de la agresión chimpancé-chimpancé.
El estudio comenzó como una respuesta a un creciente número de comentaristas que afirman que la violencia chimpancé fue causada por impactos humanos. “Esta es una pregunta importante. Si usamos a los chimpancés como un modelo para la comprensión de la violencia humana, tenemos que saber que es lo que realmente hace que los chimpancés sean violentos”, dijo el investigador de la Universidad de Minnesota, Michael L. Wilson, autor principal del estudio.
“Los seres humanos han impactado mucho los bosques tropicales y los chimpancés africanos, y una de las preguntas de larga data es si la perturbación humana es un factor subyacente que causa la agresión letal observada”, explicó el coautor David Morgan, investigador de la Centro Lester E Fisher para el Estudio y la Conservación de Simios en el Lincoln Park Zoo de Chicago. Morgan ha estudiado los chimpancés a lo profundo de los bosques de la República del Congo durante 14 años. “Una dato clave obtenido de esta investigación es que la influencia humana no estimula el aumento de la agresión dentro o entre comunidades de chimpancés”.
Un equipo de 30 investigadores reunió conjuntos de datos extensos que abarcan cinco décadas de investigación, recogidos a partir de 18 comunidades de chimpancés que experimentan diversos grados de influencia humana. En total, los datos incluyen el análisis del patrón de 152 asesinatos por los chimpancés. Las principales conclusiones indican que la mayoría de los atacantes violentos y las víctimas del ataque son chimpancés machos, y la información es consistente con la teoría de que estos actos de violencia son impulsadas por los beneficios de la aptitud de adaptación en lugar de impactos humanos.
“Las comunidades de chimpancés salvajes a menudo se dividen en dos grandes categorías en función de si habitan ambientes prístinos o perturbados por los humanos”, explicó Morgan. “En realidad, sin embargo, la perturbación humana puede ocurrir a lo largo de un continuo, y el estudio de los sitios incluidos en esta investigación abarcó el espectro. Encontramos que el impacto humano no predijo la tasa de muerte entre las comunidades.
“Cuanto más aprendemos acerca de la agresión chimpancé y los factores que provocan los ataques letales entre los chimpancés, los administradores de los parques y los funcionarios del gobierno estarán mejor preparados para abordar y mitigar los riesgos para las poblaciones, especialmente con el cambio de uso de la tierra por los seres humanos en el hábitat de los chimpancés”, explicó Morgan.
Estudio: Michael L. Wilson, Christophe Boesch, Barbara Fruth, Takeshi Furuichi, Ian C. Gilby, Chie Hashimoto, Catherine L. Hobaiter, Gottfried Hohmann, Noriko Itoh, Kathelijne Koops, Julia N. Lloyd, Tetsuro Matsuzawa, John C. Mitani, Deus C. Mjungu, David Morgan, Martin N. Muller, Roger Mundry, Michio Nakamura, Jill Pruetz, Anne E. Pusey, Julia Riedel, Crickette Sanz, Anne M. Schel, Nicole Simmons, Michel Waller, David P. Watts, Frances White, Roman M. Wittig, Klaus Zuberbühler, Richard W. Wrangham. Lethal aggression in Pan is better explained by adaptive strategies than human impactsNature 513, 414–417 (18 September 2014), doi:10.1038/nature13727

¿Nanoelectrónica basada en ADN?

La necesidad de reducir el tamaño de los dispositivos electrónicos que forman la base de las tecnologías de la información ha llevado a científicos de todo el mundo a explorar la posibilidad de utilizar moléculas individuales como componentes electrónicos. En particular, en los últimos 20 años, se ha investigado intensamente la posibilidad de utilizar moléculas de ADN como cables moleculares aprovechando sus extraordinarias propiedades de reconocimiento y auto-ensamblaje. El ADN ha resultado ser, sin embargo, un muy mal conductor eléctrico, lo que ha impedido desarrollar una electrónica basada en estas moléculas.

Imagen tomada con un microscopio de fuerzas atómicas de una molécula de G4-ADN depositada sobre una superficie de mica. La estructura atómica del G4-ADN se muestra arriba a la derecha. Crédito: UAM
Imagen tomada con un microscopio de fuerzas atómicas de una molécula de G4-ADN depositada sobre una superficie de mica. La estructura atómica del G4-ADN se muestra arriba a la derecha. Crédito: UAM
Ahora, un equipo internacional ha demostrado que una molécula de G4-ADN (un derivado del ADN) se comporta como un cable molecular que puede transportar la corriente eléctrica a distancias mayores que ninguna otra biomolécula o polímero conocido. El descubrimiento, publicado en la revista Nature Nanotechnology, podría dar lugar a una nueva nanoelectrónica basada en el uso de biomoléculas individuales.
Estos resultados han permitido, además, establecer por primera vez cuál es el mecanismo físico mediante el cual la carga eléctrica se puede transportar a grandes distancias a través de una biomolécula —una de las grandes cuestiones abiertas hasta ahora en el campo de la bioelectrónica—.
Biomolécula de cuatro hélices
“El G4-ADN es un derivado del ADN que tiene una estructura de cuatro hélices, en lugar de dos como el famoso ADN. Esta biomolécula existe en la naturaleza y se encuentran pequeños trozos, por ejemplo, al final de los cromosomas de los humanos”, explica Juan Carlos Cuevas, investigador del Departamento de Física Teórica de la Materia Condensada de la Universidad Autónoma de Madrid (UAM), y firmante del trabajo.
“La primera tarea del equipo fue modificar la estructura química de estas moléculas para hacerlas más largas y robustas —describe el investigador—. Después investigamos sus propiedades eléctricas con la ayuda de un microscopio de fuerzas atómicas (AFM). Así encontramos que cuando una de estas moléculas se deposita en un substrato aislante y se la contacta con un electrodo metálico y la punta conductora del AFM, la molécula es capaz de transportar la corriente eléctrica a distancias incluso superiores a 100 nanómetros, algo de lo que ninguna otra molécula individual es capaz”.
El propio trabajo, que también firman investigadores de la Universidad Hebrea de Jerusalén y la Universidad de Tel Aviv, destaca la posibilidad de utilizar estas biomoléculas para la fabricación de circuitos eléctricos de tamaño nanométrico.
Estudio: G. I. Livshits, A. Stern, D. Rotem, N. Borovok, G. Eidelshtein, A. Migliore, E. Penzo, S. J. Wind, R. Di Felice, S. S. Skourtis, J. C. Cuevas, L. Gurevich, A. B. Kotlyar, D. Porath. Long-range charge transport in single G-quadruplex DNA molecules. Nature Nanotechnology, advanced online publication (October 26th, 2014). DOI: 10.1038/nnano.2014.246.

sábado, 8 de noviembre de 2014

Alma capta imagen que podría modificar las teorías de formación de planetas

El subdirector del observatorio ubicado en Chile señaló que la imagen sugiere que el proceso de formación de planetas puede ser más rápido de lo que se pensaba.






Una detallada imagen captada en el observatorio Alma (Atacama Large Millimeter / submilimétrico), ubicado en el desierto de Atacama, podría cambiar las teorías que existen sobre la formación de planetas, debido a los detalles que pudieron obtenerse, los que fueron calificados por los expertos como "revolucionarios".
"Lo que hemos observado es, casi con total seguridad, el resultado de la formación de cuerpos planetarios jóvenes en el disco. Esto resulta sorprendente, ya que no se espera que estrellas jóvenes de este tipo tengan grandes cuerpos planetarios capaces de producir las estructuras que vemos en las imágenes", dijo Stuartt Corder, subdirector de Alma, en un comunicado publicado por el Observatorio Europeo Austral (ESO).
La imagen muestra el disco de la estrella HL Tauri mucho más desarrollada de lo que se esperaría, debido al cálculo que se ha hecho de la edad del sistema, por lo que se sugiere que el proceso de formación de planetas podría ser más rápido de lo que señalaban hasta ahora las teorías.
"Cuando vimos por primera vez esta imagen, nos quedamos asombrados por el espectacular nivel de detalle. HL Tauri no tiene más de un millón años, y sin embargo su disco ya parece estar lleno de planetas en formación. Esa imagen sola va a revolucionar las teorías de formación planetaria", señaló la subdirectora del programa científico del observatorio, Catherine Vlahakis.
Según explicaron los expertos, la alta resolución de la imagen sólo puede lograrse a través de las capacidades de larga base de Alma, lo que es imposible de obtener con otros telescopios, ni siquiera con el Hubble, que está ubicado en el espacio.
Al respecto, el director general de ESO, Tim de Zeeuw, dijo que "la mayoría de lo que sabemos hoy en día sobre la formación de planetas se basa en la teoría. Hasta ahora, imágenes con este nivel de detalle solo eran posibles gracias a simulaciones de ordenador o ilustraciones. Esta imagen de alta resolución de HL Tauri demuestra lo que puede lograr Alma cuando opera en su configuración más grande, e inicia una nueva era en la exploración del universo".