viernes, 29 de marzo de 2013

Cómo construir una estrella gigantesca

Las estrellas diez o más veces más masivas que el Sol, no deberían existir: a medida que crecen, tienden a alejar el gas del que se alimentan, y su propio crecimiento hace que se queden sin combustible. Sin embargo, existen estrellas de ese tipo, las que han constituido un misterio para los científicos.

Las estrellas diez o más veces más masivas que el Sol no deberían existir; sin embargo existen. Ahora los astrónomos piensan que han encontrado el mecanismo que permite que ciertas estrellas crezcan a proporciones gigantescas. Crédito: ESA/PACS Array SPIRE consortium, A. Rivera-Ingraham and P. G. Martin, University of Toronto, HOBYS Key Programme (F. Motte)
Las estrellas diez o más veces más masivas que el Sol no deberían existir; sin embargo existen. 
Ahora los astrónomos piensan que han encontrado el mecanismo que permite que ciertas estrellas crezcan a proporciones gigantescas. 
Crédito: ESA/PACS Array SPIRE consortium, A. Rivera-Ingraham and P. G. Martin, University of Toronto, HOBYS Key Programme (F. Motte)



Ahora, un grupo de investigadores, dirigidos por dos astrónomos de la Universidad de Toronto, sugiere que las estrellas pueden llegar a esas proporciones si nacen dentro de un corral de estrellas más viejas, que si están dispuestas correctamente, ayudan a que las estrellas nacientes se alimenten con gas. Los astrónomos han visto indicios de esta alimentación colectiva, o técnicamente una “retroalimentación constructiva convergente”, en una gigantesca nube de gas y polvo llamada Westerhout 3 (W3), situada a 6.500 años luz de la Tierra.
Los investigadores notaron que la región más densa de la nube, en la parte superior izquierda de la imagen, estaba rodeada por una congregación de estrellas viejas de gran masa. Es como si las generaciones anteriores de grandes estrellas ayudan a que la próxima generación crezca hasta alcanzar tamaños masivos. Los científicos sugieren que esto no es casual: cada generación de estrellas podría haber creado las condiciones adecuadas para que una nueva generación crezca hasta alcanzar tamaños comparables, lo que en última instancia conduce a la formación de un extraño cúmulo de estrellas de gran masa.
Una estrella grande recién nacida provocará que se aleje su fuente de alimentos, pero si está rodeada por suficientes estrellas grandes, éstas pueden empujar y devolver el gas a la estrella en crecimiento. Con esta alimentación colectiva, la joven estrella puede crecer hasta alcanzar grandes proporciones.
Como paso siguiente, los astrónomos podrán a prueba su idea en simulaciones informáticas, mediante la medición de los movimientos del gas, y su comparación con los datos obtenidos de otras grandes nubes.
Los hallazgos se publicarán el próximo mes en The Astrophysical Journal.
Fuente: Newswise

jueves, 28 de marzo de 2013

Descubren el “lubricante” de las placas tectónicas de la Tierra

Científicos de la Institución Scripps de Oceanografía, de la Universidad de California en San Diego, han descubierto una capa de roca fundida licuada en el manto de la Tierra, que puede estar actuando como un lubricante para los movimientos masivos del deslizamiento de las placas tectónicas del planeta. El descubrimiento puede tener consecuencias de largo alcance, desde resolver funciones básicas geológicas del planeta, hasta una mejor comprensión del vulcanismo y de los terremotos.

La zona de color naranja, delimitada por una línea punteada, denota una capa de magma que los científicos creen que está facilitando el movimiento de la placa de Cocos de Nicaragua. Las áreas azules representan la placa de Cocos deslizándose por el manto, la que eventualmente se sumergirá por debajo del continente centroamericano, mientras que los puntos negros representan sitios de terremoto. El descubrimiento se realizó mediante el análisis de los datos recogidos por una serie de instrumentos electromagnéticos situados en el fondo marino, que se muestran en forma de triángulos invertidos. Crédito: Universidad de California, San Diego
La zona de color naranja, delimitada por una línea punteada, denota una capa de magma que los científicos creen que está facilitando el movimiento de la placa de Cocos de Nicaragua. Las áreas azules representan la placa de Cocos deslizándose por el manto, la que eventualmente se sumergirá por debajo del continente centroamericano, mientras que los puntos negros representan sitios de terremoto. El descubrimiento se realizó mediante el análisis de los datos recogidos por una serie de instrumentos electromagnéticos situados en el fondo marino, que se muestran en forma de triángulos invertidos. Crédito: Universidad de California, San Diego



Los científicos descubrieron la capa de magma en la fosa mesoamericana en el litoral de Nicaragua. Usando una tecnología avanzada de imagenología electromagnética del fondo marino, desarrollada en Scripps, los científicos obtuvieron imágenes de una gruesa capa de roca, de 25 kilómetros, parcialmente fundida del manto, por debajo del borde de la placa de Cocos, donde se mueve por debajo de Centroamérica.
Durante décadas, los científicos han debatido las fuerzas y circunstancias que permiten que las placas tectónicas del planeta se deslicen por el manto de la Tierra. Los estudios han demostrado que el agua disuelta en los minerales del manto resultan en un manto más dúctil que facilita los movimientos tectónicos de placas, pero durante muchos años no se han logrado ni imágenes claras, ni los datos necesarios para confirmar o desmentir esta idea.
“Nuestros datos nos dicen que el agua no puede adaptarse a las características que estamos viendo”, dice Samer Naif, un estudiante graduado de Scripps y autor principal del artículo. “La información brindada por las nuevas imágenes confirman la idea de que es necesario que haya cierta cantidad de material fundido en el manto superior, y eso es realmente lo que crea el comportamiento dúctil para el deslizamiento de las placas”.
Los investigadores dicen que sus resultados ayudarán a que los geólogos entiendan mejor la estructura de los límites de las placas tectónicas, y su influencia en los terremotos y la actividad volcánica.
Ahora los investigadores se han enfocado en encontrar la fuente que alimenta el magma de la capa recién descubierta.
El hallazgo se reporta en la edición del 21 de marzo de la revista Nature.
Fuente: University of California, San Diego

El errático vagar del vórtice del polo sur de Venus

La misión espacial Venus Express desvela el comportamiento de su vórtice polar.

El errático vagar del vórtice del polo sur de Venus. Crédito: CSIC
Los vórtices atmosféricos son flujos turbulentos que rotan en espiral. Son frecuentes en las regiones polares de los planetas del Sistema Solar de rotación rápida, como la Tierra, Júpiter y Saturno, pero también pueden producirse en cuerpos de rotación lenta, como es el caso de Venus. La misión espacial Venus Express de la Agencia Espacial Europea ha estudiado el comportamiento del vórtice del polo sur de este último planeta y ha observado que se mueve de forma impredecible en torno al polo sur geográfico a velocidades de hasta 55 kilómetros por hora. Los resultados del estudio, en el que ha participado un investigador del Consejo Superior de Investigaciones Científicas (CSIC), han sido publicados en Nature Geoscience.
En cada uno de los planetas que presentan atmósfera los vórtices polares exhiben un comportamiento que obedece al régimen atmosférico existente. El caso de Venus es muy especial en el Sistema Solar, ya que el planeta tarda 243 días en girar sobre sí mismo mientras que su atmósfera lo hace unas 60 veces más rápido, dando origen a un régimen atmosférico llamado superrotación que sólo comparte con Titán, una de las lunas de Saturno”, explica el investigador del CSIC en el Instituto de Astrofísica de Andalucía Javier Peralta.
Movimiento impredecible
Los investigadores han estudiado de manera simultánea el vórtice a dos alturas diferentes, a 42 y a 63 km de la superficie del polo sur de Venus, mediante un instrumento denominado VIRTIS-M, capaz de tomar imágenes infrarrojas de la atmósfera a diferentes longitudes de onda y a diferentes niveles verticales. De esta forma, los investigadores han visto que, si bien el vórtice rota aproximadamente en torno al polo sur geográfico, se acerca y se aleja de éste de manera caótica e impredecible a gran velocidad.
Por otra parte, el estudio concluye que el centro de rotación no coincide a diferentes alturas y que, al contrario de lo que sucede en otros planetas como Júpiter, la vorticidad (magnitud física que cuantifica la rotación de un fluido) no se corresponde con las morfologías nubosas observadas.
En la investigación, que está liderada por el Grupo de Ciencias Planetarias de la Universidad del País Vasco, también han participado el Observatorio Astronómico de Lisboa, el Observatorio de París y el Instituto de Astrofísica Espacial y Física Cósmica de Roma.
Fuente: CSIC

miércoles, 27 de marzo de 2013

Un problema de peso: ¿Cómo definir un kilo?

A principios de este año el kilogramo estándar mundial llamó la atención internacional, cuando los científicos descubrieron que había ganado un poco de peso.

Una de las esferas perfectas creadas en Australia, que compiten por definir la nueva norma de un kilogramo. Los investigadores dicen que las esferas son ideales, ya que no tienen bordes que podrían resultar dañados, y basta medir el diámetro para calcular su volumen. Crédito: CSIRO
Una de las esferas perfectas creadas en Australia, que compiten por definir la nueva norma de un kilogramo. Los investigadores dicen que las esferas son ideales, ya que no tienen bordes que podrían resultar dañados, y basta medir el diámetro para calcular su volumen. Crédito: CSIRO


Conocido como el prototipo internacional del kilogramo (IPK), es una de las siete unidades básicas utilizadas en la ciencia, el comercio y la vida cotidiana. Sin embargo, es el único que aún se define por medio de un objeto físico. Todas las demás unidades se definen en términos de una constante fundamental de la naturaleza, por lo que no pueden cambiar con el tiempo.
El kilogramo estándar está hecho de platino e iridio, y se ha conservado a buen recaudo en una caja fuerte en la Oficina Internacional de Pesos y Medidas de París, desde finales del siglo XIX. Sin embargo, con los años se han ido acumulando pequeñas partículas de contaminación, en el orden de decenas de microgramos.
Si bien algunos podrían considerar este aumento de peso como algo positivo (significa que el resto de nosotros estamos perdiendo peso, ¿no?), pone de manifiesto la necesidad de retirar el prototipo de un siglo de antigüedad.
Por ello, la comunidad científica internacional está trabajando para lograr una definición más precisa del kilo, que armonice con otras unidades básicas, como el metro y el segundo.
Un enfoque, tomado por un equipo de científicos australianos, busca definir el kilogramo por el número de átomos en un conjunto de esferas perfectas de silicio. Las esferas, desarrolladas por CSIRO y el Instituto Nacional de Medidas, son ideales para el trabajo – ya que no tienen bordes que podrían resultar dañados, y basta medir el diámetro para calcular su volumen.
Con las esferas en la competencia por definir la nueva norma, se espera que pronto se podría definir el kilogramo en función de sus átomos, y no en nuestro amigo parisino, ya algo anticuado.
Fuente: CSIRO

martes, 26 de marzo de 2013

¿La velocidad de la luz es fluctuante?

Según nuevas investigaciones puede, que después de todo, la velocidad de la luz no sea fija, ya que las partículas efímeras en el vacío inducen fluctuaciones en la velocidad de la luz.

Según un estudio, hay una posibilidad teórica de que la velocidad de la luz no sea fija, como lo ha supuesto la física convencional, sino que podría fluctuar. Crédito de la imagen: morgueFile
Según un estudio, hay una posibilidad teórica de que la velocidad de la luz no sea fija, como lo ha supuesto la física convencional, sino que podría fluctuar. Crédito de la imagen: morgueFile

Dos estudios que se publicarán próximamente en The European Physical Journal D, desafían la opinión establecida sobre la naturaleza del vacío. En un artículo, Marcel Urban de la Universidad de Paris-Sud y sus colegas identificaron un mecanismo a nivel cuántico para interpretar el vacío como lleno de pares de partículas virtuales con valores fluctuantes de energía. Como resultado, las características inherentes del vacío, como la velocidad de la luz, pueden que no sean constantes, sino que fluctúen. Mientras tanto, en otro estudio, Gerd Leuchs y Luis L. Sánchez-Soto, del Instituto Max Planck para la Física de la Luz, sugieren que las constantes físicas, tales como la velocidad de la luz y la denominada impedancia del espacio libre, son indicaciones del número total de partículas elementales en la naturaleza.
El vacío es uno de los conceptos más interesantes de la física. Cuando se observa a nivel cuántico, el “vacío” realmente no está vacío, sino que está lleno de pares de partículas que continuamente aparecen y desaparecen, tales como pares de electrón-positrón o quark-antiquark. Estas partículas efímeras son partículas reales, pero sus vidas son muy cortas.
En su estudio, Urban y sus colegas establecieron, por primera vez, un detallado mecanismo cuántico que explicaría la magnetización y la polarización del vacío, que se denomina permeabilidad y permitividad del vacío, así como la velocidad finita de la luz. Este hallazgo es relevante, ya que sugiere la existencia de un número limitado de partículas efímeras por unidad de volumen en el vacío. Como resultado, hay una posibilidad teórica de que la velocidad de la luz no sea fija, como lo ha supuesto la física convencional, sino que podría fluctuar en un nivel independiente de la energía de cada cuanto de luz, o fotón, y más grande que las fluctuaciones inducidas por la gravedad a nivel cuántico. La velocidad de la luz sería dependiente de las variaciones en en el vacío de las propiedades del espacio o del tiempo. Las fluctuaciones del tiempo de propagación del fotón se estiman que son del orden de 50 attosegundos por metro cuadrado de vacío cruzado, lo que se podría comprobar con la ayuda de nuevos láseres ultrarrápidos.
Leuchs y Sánchez-Soto, por otro lado, modelaron pares de partículas virtuales cargadas como dipolos eléctricos responsables de la polarización del vacío. Encontraron que una propiedad específica del vacío llamada impedancia, que es crucial para la determinación de la velocidad de la luz, depende sólo de la suma del cuadrado de las cargas eléctricas de las partículas, pero no de sus masas. Si su idea es correcta, el valor de la velocidad de la luz, en combinación con el valor de la impedancia del vacío proporcionaría una indicación del número total de partículas elementales cargadas existentes en la naturaleza. Los resultados experimentales apoyan esa hipótesis.
Fuente: Springer

viernes, 15 de marzo de 2013

Nuevos resultados indican que la partícula descubierta sí es un bosón de Higgs

ras analizar una cantidad de datos dos veces y media mayor que la disponible para el anuncio de julio, los científicos de ATLAS y CMS observan que la nueva partícula se parece cada vez más a un bosón de Higgs.

Detector CMS del Gran Colisionador de Hadrones (LHC), en el CERN. Crédito: CERN
Detector CMS del Gran Colisionador de Hadrones (LHC), en el CERN. Crédito: CERN


Las colaboraciones ATLAS y CMS del Gran Colisionador de Hadrones (LHC) del Laboratorio Europeo de Física de Partículas (CERN) presentaron hoy en la conferencia de Moriond (Italia) nuevos resultados que aclaran más la naturaleza de la partícula descubierta el año pasado. Tras analizar una cantidad de datos dos veces y media mayor que la disponible para el anuncio de julio, los científicos de ATLAS y CMS observan que la nueva partícula se parece cada vez más a un bosón de Higgs, la partícula asociada al mecanismo que da masa a las partículas elementales. Sin embargo, sigue sin resolverse si es el bosón de Higgs del Modelo Estándar de Física de Partículas, o posiblemente el más ligero de una serie de bosones predichos por algunas teorías que van más allá del Modelo Estándar. Encontrar la respuesta llevará más tiempo.
Se cree que un bosón de Higgs tendría espín 0, una propiedad que define las partículas, y su paridad, otra de sus propiedades que mide cómo se comporta su imagen especular, debe ser positiva. CMS y ATLAS han comparado un número de opciones del espín y la paridad de la nueva partícula, y todas ellas muestran una preferencia hacia un espín 0 y una paridad positiva, características compatibles con un bosón de Higgs.
Los resultados preliminares con el conjunto de datos de 2012 son magníficos. Para mí está claro que se trata de un bosón de Higgs, aunque todavía queda un largo camino para saber qué tipo de bosón de Higgs es”, declaró el portavoz de CMS Joe Incandela.
Los nuevos resultados representan un gran esfuerzo de mucha gente”, dijo el portavoz de ATLAS Dave Charlton. “Todos apuntan a que la nueva partícula tiene un espín y paridad como un bosón de Higgs. Ahora empezamos con el programa de medición en el sector del Higgs”.
Para determinar si es el bosón de Higgs del Modelo Estándar, las colaboraciones ATLAS y CMS tienen que medir con precisión la tasa en la que el bosón se desintegra en otras partículas y compararla con las predicciones teóricas. La detección de este bosón es un suceso muy raro, ocurre alrededor de cada billón de colisiones protón-protón. Caracterizar todos los modos en los que se desintegra requerirá muchos más datos del LHC.
Fuente: DiCyT

jueves, 14 de marzo de 2013

La medida más precisa del Universo

La medida más precisa del Universo. Crédito: ESO 

Tras casi una década de meticulosas observaciones, un equipo internacional de astrónomos ha medido, con mayor precisión que nunca, la distancia a nuestra galaxia vecina, la Gran Nube de Magallanes. Estas nuevas medidas también amplían nuestro conocimiento sobre la tasa de expansión del Universo — la constante de Hubble — y es un paso adelante crucial para entender la naturaleza de la misteriosa energía oscura que hace que la expansión se esté acelerando. El equipo utiliza telescopios instalados en el Observatorio La Silla de ESO, en Chile, además de otros telescopios alrededor del mundo. Estos resultados aparecen en el número del 7 de marzo de 2013 de la revista Nature.
Para conocer con exactitud distancias cada vez más alejadas en el cosmos, los astrónomos sondean la escala del universo midiendo primero la distancia a objetos cercanos, utilizándolos como puntos de referencia (candelas estándar). Pero esta cadena solo es tan precisa como lo es su eslabón más débil. Hasta el momento, encontrar una distancia precisa a la Gran Nube de Magallanes (Large Magellanic Cloud, LMC), una de las galaxias más cercanas a la Vía Láctea, ha resultado ser impreciso. Dado que las estrellas en esta galaxia se utilizan para fijar la escala de distancias para galaxias más remotas, las medidas son de crucial importancia.
La minuciosa observación de un extraño tipo de estrella doble ha permitido a un equipo de astrónomos deducir un valor mucho más preciso para la distancia a LMC: 163.000 años luz.
“Estoy muy emocionado porque los astrónomos han estado intentando durante cien años medir con precisión la distancia a la Gran Nube de Magallanes, y se ha comprobado que esto es extremadamente difícil”, afirma Wolfgang Gieren (Universidad de Concepción, Chile) uno de los investigadores que lidera el equipo. “Ahora hemos resuelto este problema con un resultado demostrable y con una precisión de un 2%”.
La mejora en la medida de la distancia a la Gran Nube de Magallanes también nos facilita conocer mejor distancias a muchas estrellas variables Cefeidas. Estas brillantes estrellas pulsantes se utilizan como estrellas de referencia para medir distancias a galaxias más remotas y para determinar la tasa de expansión del universo — la Constante de Hubble. A su vez, esta es la base para sondear el universo hasta las galaxias más distantes que pueden verse con los telescopios actuales. De manera que una distancia precisa a la Gran Nube de Magallanes reduce inmediatamente la inexactitud en las medidas actuales de distancias cosmológicas.
Los astrónomos obtuvieron la distancia a la Gran Nube de Magallanes observando una extraña pareja de estrellas cercanas, conocidas como binarias eclipsantes. Dado que estas estrellas orbitan una alrededor de la otra, pasan la una delante de la otra. Cuando esto ocurre, visto desde la Tierra, el brillo total desciende, tanto cuando una estrella pasa delante de la otra como cuando pasa por detrás (aunque la cantidad es diferente).
Haciendo un seguimiento muy preciso de estos cambios en el brillo, y midiendo las velocidades orbitales de las estrella, es posible saber el tamaño de las estrellas, sus masas y otras informaciones sobre sus órbitas. Cuando combinamos esto con medidas minuciosas del brillo total y del color de la estrella se obtienen distancias notablemente precisas.
Este método ha sido utilizado anteriormente, pero con estrellas calientes. Sin embargo, en este caso deben asumirse ciertas hipótesis y estas distancias no resultan tan precisas como se desearía. Ahora, por primera vez, se han identificado ocho binarias eclipsantes extremadamente raras, en las que ambas estrellas son gigantes rojas frías. Estas estrellas han sido cuidadosamente estudiadas y resultan en valores de distancias mucho más precisas — hasta alrededor de un 2%.
“ESO proporcionó el equipo perfecto de telescopios e instrumentos necesario para las observaciones de este proyecto: HARPS para obtener las velocidades radiales extremadamente precisas de estrella relativamente débiles, y SOFI para las medidas precisas de cuán brillantes son estas estrellas en el rango infrarrojo”, añade Grzegorz Pietrzyński (Universidad de Concepción, Chile, y Observatorio de la Universidad de Varsovia, Polonia), autor que lidera el nuevo artículo de Nature.
“Estamos trabajando para mejorar nuestro método aún más y esperamos tener una distancia a LMC de un 1% dentro de unos pocos años. Esto tiene consecuencias de amplio alcance no solo para la cosmología, sino para numerosos campos de la astrofísica”, concluye Dariusz Graczyk, el segundo autor del nuevo artículo de Nature.
Fuente: ESO

Para la vida basada en el carbono no hay mucho margen para el error


La vida como la conocemos se basa en los elementos carbono y oxígeno. Ahora, un equipo de físicos ha estudiado las condiciones necesarias para la formación de estos dos elementos en el universo. Han descubierto que cuando se trata de sostener la vida, el universo deja muy poco margen para el error.

La masa del quark determina la producción de carbono y de oxígeno, así como la viabilidad de la vida basada en el carbono. Crédito de la imagen: Dean Lee. Tierra y Mercurio imágenes de la NASA
La masa del quark determina la producción de carbono y de oxígeno, así como la viabilidad de la vida basada en el carbono. Crédito de la imagen: Dean Lee. Tierra y Mercurio imágenes de la NASA

Tanto el carbono como el oxígeno se producen cuando el helio se quema dentro estrellas rojas gigantes. El carbono-12, un elemento esencial del que todos estamos hechos, sólo se puede formar cuando tres partículas alfa, o núcleos de helio-4, se combinan de una manera muy específica. La clave de la formación es un estado excitado del carbono-12 conocido como el estado Hoyle, que tiene una energía muy específica – que se ha medido en 379 keV (o 379.000 electrón voltios) por encima de la energía de las tres partículas alfa. El oxígeno se produce por la combinación de otra partícula alfa y carbono.
El físico Dean Lee, de la Universidad Estatal de Carolina del Norte, y sus colegas alemanes Evgeny Epelbaum, Krebs Hermann, Laehde Timo y Ulf-G. Meissner ya habían confirmado previamente la existencia y estructura del estado Hoyle, por medio de una celosía numérica que les permitió simular la manera en que los protones y los neutrones interactúan. Estos protones y neutrones están compuestos por partículas elementales llamadas quarks. La masa del quark es uno de los parámetros fundamentales de la naturaleza, y afecta las energías de las partículas.
En los nuevos cálculos de la celosía, realizados en el Centro Juelich de Supercomputación, los físicos encontraron que tan sólo una ligera variación en la masa del quark cambiaría la energía del estado Hoyle, y esto a su vez afectaría la producción de carbono y de oxígeno, de tal manera que la vida tal como la conocemos no existiría.
“El estado Hoyle del carbono es la clave”, dice Lee. “Si la energía del estado Hoyle fuera 479 keV o más por encima de las tres partículas alfa, la cantidad de carbono producida sería demasiado baja para la vida basada en el carbono”.
“Lo mismo puede decirse del oxígeno”, añade. “Si la energía del estado Hoyle hubiere estado dentro de los 279 keV de las tres alfas, habría muchísimo carbono, pero las estrellas quemarían su helio en carbono mucho antes en su ciclo de vida. Como consecuencia, las estrellas no serían lo suficientemente calientes para producir el oxígeno necesario para la vida. En nuestras simulaciones de celosía encontramos que más de un 2 ó 3% de cambio en la masa del quark daría lugar a problemas con la abundancia de carbono o de oxígeno en el universo”, concluye Lee.
Los hallazgos se publican en Physical Review Letters.
Fuente: NC State University

 

miércoles, 13 de marzo de 2013

SE INAGURA EL MAYOR OBSERVATORIO DEL MUNDO


 
 
El día de hoy a las 11.30am comenzará la inauguración del Atacama Large Millimeter/submillimeter Array (ALMA), el centro de observación astronómica más grande del mundo creado por medio de una asociación entre Norteamérca, Europa y Asia del Este. A la ceremonia asistirán más de 500 invitados, entre ellos el Presidente Sebastián Piñera.
La instalación consiste en un súpercomputador que procesará los datos recolectados por los 66 radiotelescopios instalados de 12 y 7 metros de diámetro, los que trabajarán de manera simultánea para entregar mediciones en un rango de longitud de onda larga, lo que permitirá estudiar al "universo frío" y descubrir cómo se forman los planetas. Las antenas también tienen la ventaja de que pueden ser desplazadas en distancias que van desde los 150 metros a los 16 kilómetros, lo que le dará a ALMA un gran "zoom" en las diferentes zonas que los astrónomos deseen explorar.
El complejo se ubica a 5000 metros de altura en el llano de Chajnantor, en el desierto de Atacama, su costo aproximado es de US$ 1,5 mil millones y gracias a que fue instalado en Chile los expertos nacionales podrán tener el 10% de las opciones para realizar estudios allí.
 La inauguración en vivo puedes verla acá : 

http://www.almaobservatory.org/inauguration/

MAS INFORMACION EN ESPAÑOL : http://www.almaobservatory.org/es/anuncios-eventos/532-media-advisory-virtual-press-conference-to-mark-alma-inauguration

viernes, 8 de marzo de 2013

Descubierto un nuevo cinturón de radiación alrededor de la Tierra

La misión Van Allen de la NASA ha descubierto un tercer cinturón de radiación alrededor de la Tierra, hasta ahora desconocido, que revela la existencia de estructuras y procesos inesperados dentro de estas regiones peligrosas del espacio.

Desde su descubrimiento hace 50 años, se creía que los cinturones de radiación Van Allen de la Tierra consistían en dos zonas distintas de partículas cargadas altamente energéticas. Las observaciones de las sondas Van Allen de la NASA han revelado un tercer anillo aislado en el cinturón de radiación exterior. Crédito: NASA / Goddard Space Flight Center
Desde su descubrimiento hace 50 años, se creía que los cinturones de radiación Van Allen de la Tierra consistían en dos zonas distintas de partículas cargadas altamente energéticas. Las observaciones de las sondas Van Allen de la NASA han revelado un tercer anillo aislado en el cinturón de radiación exterior. Crédito: NASA / Goddard Space Flight Center




Las observaciones anteriores de los cinturones Van Allen de la Tierra, desde hace tiempo han documentado dos regiones distintas de radiación alrededor de nuestro planeta. Los instrumentos de detección de partículas a bordo de las sondas gemelas Van Allen, rápidamente revelaron la existencia de este nuevo tercer cinturón de radiación, que es transitorio.
Los cinturones, llamados así en honor de su descubridor, James Van Allen, se ven afectados por las tormentas solares y el clima espacial, y pueden aumentar de tamaño de forma dramática. Cuando esto ocurre, pueden representar un peligro para los satélites de comunicaciones y GPS, así como para los seres humanos en el espacio.

Cinturones de radiación Van Allen de la Tierra. Cinturones de radiación Van Allen de la Tierra
 Cinturones de radiación Van Allen de la Tierra. Cinturones de radiación Van Allen de la Tierra.


Este descubrimiento demuestra la naturaleza dinámica y variable de los cinturones de radiación, y mejora nuestra comprensión de cómo responden a la actividad solar. Las observaciones revelaron que puede haber tres estructuras distintas y duraderas de cinturones.
Los científicos observaron el tercer cinturón durante cuatro semanas, antes de que una potente onda de choque interplanetaria, emitida por el Sol, lo extinguiera.
Cada sonda Van Allen lleva un juego idéntico de cinco conjuntos de instrumentos que permiten que los científicos recopilen datos con detalle sin precedentes sobre los cinturones. Los datos son importantes para el estudio de los efectos del clima espacial en la Tierra, así como para los procesos físicos fundamentales que se observan alrededor de otros objetos, como los planetas de nuestro sistema solar y las nebulosas distantes.
Los resultados se publican en la revista Science.
Fuente: NASA

Investigación arroja nueva luz sobre la posible “quinta fuerza de la naturaleza”

En un gran avance para el campo de la física de partículas, Larry Hunter y sus colegas de Amherst y de la Universidad de Texas en Austin han establecido nuevos límites a lo que los científicos llaman “interacción de larga distancia espín-espín” entre las partículas atómicas. Estas interacciones han sido propuestas por los físicos teóricos pero aún no se han observado. Su observación constituiría el descubrimiento de una “quinta fuerza de la naturaleza” (además de las cuatro fuerzas fundamentales conocidas: la gravedad, la electromagnética y las fuerzas nucleares débil y fuerte), y sugiere la existencia de nuevas partículas, más allá de las que el modelo estándar de la la física de partículas describe actualmente.

La imagen representa la interacción de larga distancia espín-espín (líneas azules onduladas) en la que el detector de espín en la superficie terrestre interactúa con geoelectrónes (puntos rojos) en la profundidad del manto de la Tierra. Las flechas en los geoelectrónes indican sus orientaciones de espín, opuestas a las de las líneas del campo magnético de la Tierra (arcos blancos). Ilustración: Marc Airhart (University of Texas at Austin) y Steve Jacobsen (Northwestern University).
La imagen representa la interacción de larga distancia espín-espín (líneas azules onduladas) en la que el detector de espín en la superficie terrestre interactúa con geoelectrónes (puntos rojos) en la profundidad del manto de la Tierra. Las flechas en los geoelectrónes indican sus orientaciones de espín, opuestas a las de las líneas del campo magnético de la Tierra (arcos blancos). Ilustración: Marc Airhart (University of Texas at Austin) y Steve Jacobsen (Northwestern University).



Cada partícula fundamental (cada electrón, neutrón y protón), explica Hunter, tiene la propiedad intrínseca atómica de “espín”. Del espín se puede pensar como en un vector – una flecha que apunta en una dirección particular. Al igual que toda la materia, la Tierra y su manto, una capa geológica gruesa situada entre la corteza externa delgada y el núcleo central – están hechas de átomos. Los átomos, a su vez, están compuestos por electrones, neutrones y protones que tienen espín. El campo magnético de la Tierra hace que el espín de algunos de los electrones en los minerales del manto se polaricen un poco, es decir, que la dirección de su espín ya no sea completamente aleatoria, sino que tenga una orientación neta.
Los nuevos límites se han establecido teniendo en cuenta la interacción entre los espines de los fermiones de laboratorio (electrones, neutrones y protones) y los espines de los electrones dentro de la Tierra. Para hacer posible este estudio, los autores crearon el primer mapa completo de la polarización de electrones dentro de la Tierra, inducida por el campo geomagnético del planeta.
Hasta ahora, ningún experimento ha sido capaz de detectar cualquier interacción. Sin embargo, en el estudio de Hunter, los investigadores describen cómo fueron capaces de inferir que las llamadas fuerzas espín-espín, si es que existen, deben ser muy débiles, quizá un millón de veces más débiles que la atracción gravitacional entre las partículas. En este nivel, los experimentos pueden limitar “la gravedad de torsión” – una extensión teórica propuesta de la teoría de la Relatividad General de Einstein. Dada la alta sensibilidad de la técnica que Hunter y su equipo han utilizado, ésta puede proporcionar un camino útil para futuros experimentos que refinan la búsqueda de una quinta fuerza. Si se encuentra una fuerza de espín-espín de largo alcance, no sólo se revolucionaría la física de partículas, sino que eventualmente los geofísicos contarían con una nueva herramienta que les permita estudiar directamente los electrones con espín polarizado dentro de la Tierra.
Si en futuros experimentos se descubre la interacción de larga distancia espín-espín, los geocientíficos pueden llegar a utilizar dicha información para comprender mejor la geoquímica y la geofísica del interior del planeta, concluyeron los investigadores.
El estudio se publica en la revista Science.
Fuente: Amherst College

miércoles, 6 de marzo de 2013

Nuevo material puede absorber las emisiones de carbono

Las emisiones de las centrales eléctricas a base de carbón se podrían reducir drásticamente con un material nuevo y eficiente que absorbe grandes cantidades de dióxido de carbono, que luego se pueden liberar cuando el material se expone a la luz solar.

Un nuevo material puede ayudar a reducir drásticamente las emisiones de carbono. Crédito: Monash University
Un nuevo material puede ayudar a reducir drásticamente las emisiones de carbono. Crédito: Monash University


En un estudio de la Universidad de Monash y de científicos de CSIRO, publicado en Angewandte Chemie, se revela el descubrimiento de un metal orgánico fotosensible (MOF) – una clase de materiales conocidos por su capacidad excepcional para almacenar gases. Esto ha creado una nueva herramienta, poderosa y rentable para capturar y almacenar, o potencialmente reciclar el dióxido de carbono.
Mediante la utilización de la luz solar para liberar el carbono almacenado, el nuevo material supera los problemas de costo, y la ineficiencia asociada con los métodos actuales que consumen mucha energía para la captura del carbono. Las tecnologías actuales utilizan materiales líquidos de captura, que se tienen que calentar en un proceso prolongado para liberar el dióxido de carbono almacenado.
Los MOF son una clase prometedora y novedosa de materiales que consisten en grupos de átomos metálicos conectados por moléculas orgánicas. Debido a que su superficie interna es extremadamente alta – con un gramo se podría cubrir todo un campo de fútbol – pueden almacenar grandes volúmenes de gas.
Fuente: Monash University

Un viaje a los límites del espacio-tiempo

Los agujeros negros, unos vacíos voraces en el centro de las galaxias, moldean el crecimiento y la muerte de las estrellas a su alrededor, por medio de su poderosa atracción gravitatoria y las eyecciones explosivas de energía que generan.

Visualización del efecto de alineamiento de los chorros relativistas, compuestos por corrientes de gases ionizados de alta potencia, debido a las fuerzas magnéticas generadas por el espín de un agujero negro. Crédito: Ralf Kaehler y Jonathan C. McKinney
Visualización del efecto de alineamiento de los chorros relativistas, compuestos por corrientes de gases ionizados de alta potencia, debido a las fuerzas magnéticas generadas por el espín de un agujero negro. Crédito: Ralf Kaehler y Jonathan C. McKinney

Las fuerzas gravitacionales crecen tan potentes cerca de un agujero negro que ni siquiera la luz puede escapar de su interior, de ahí la dificultad de observarlos directamente. Los científicos infieren las características de los agujeros negros por su influencia sobre los objetos astronómicos que les rodean: la órbita de las estrellas y los cúmulos de energía. Con esta información en mano, los científicos crean modelos informáticos para comprender los datos y hacer predicciones sobre la física de las regiones distantes del espacio. Sin embargo, los modelos sólo son tan buenos como sus supuestos.
“Todas las pruebas de la relatividad general en el límite del campo gravitatorio débil, como en nuestro sistema solar, caen directamente en la línea de lo que Einstein predijo”, explicó Jonathan Allen, profesor adjunto de física en la Universidad de Maryland en College Park. “Pero hay otro régimen, que todavía no se ha probado, y que es el más difícil de probar – que representa el límite de un fuerte campo gravitatorio. Y de acuerdo con Einstein, la gravedad es más fuerte cerca de los agujeros negros”.
Esto hace de los agujeros negros la mejor prueba experimental de la teoría de Einstein de la relatividad general.
Aunque los agujeros negros no pueden ser observados, por lo general están acompañados por otros objetos con características distintivas que se pueden ver, tales como los discos de acreción, que son discos de materia supercaliente en nuestro lado del “horizonte de sucesos” del agujero negro; y chorros relativistas, compuestos por corrientes de gases ionizados de alta potencia, que se disparan a cientos de miles de años luz.
En un artículo publicado en Science en enero de 2013, McKinney, Tchekhovskoy y Blandford vaticinaron la formación de discos de acreción y de chorros relativistas que se deforman y se doblan más de lo que se pensaba, creados tanto por la extrema gravedad del agujero negro, como por las poderosas fuerzas magnéticas generadas por su espín.
Durante décadas se mantuvo una visión simplista de los discos de acreción y de los chorros polares. Se creía que los discos de acreción permanecían como placas planas a lo largo de los bordes exteriores de los agujeros negros, y que los chorros se disparaban hacia afuera perpendicularmente. Sin embargo, las nuevas simulaciones 3D han cambiado esa concepción simplista de los chorros y de los discos.
Las simulaciones muestran que los chorros se alinean con el espín del agujero, cerca de éste, pero que gradualmente se ven empujados por el material del disco y se colocan en una posición paralela, pero desplazada del eje de rotación del disco, a una gran distancia.
En las simulaciones, la energía de torsión crece tanto que alimenta el chorro. De hecho, el chorro puede reorientar al disco de acreción, y no al contrario, como se pensaba anteriormente.
¿Qué tiene esto que ver con Einstein y su teoría de la relatividad general?
Los astrónomos están más cerca que nunca – en 3 a 5 años – de ser capaces de ver los detalles de los chorros y los discos de acreción alrededor de los agujeros negros.
Las observaciones o bien coincidirán con un modelo como este, o serán diferentes. Los investigadores aprenderán mucho cualquiera que sea el resultado.
McKinney explica que sin un modelo preciso no es posible demostrar de una manera u otra si Einstein tenía razón o no. En cambio si se tiene un modelo preciso que utilice las ecuaciones de Einstein, y se observa un agujero negro que es muy diferente de lo que se esperaba, se podrá decir que quizá su teoría no este correcta.
El modelo de Blandford, así como otros generados mediante simulaciones informáticas servirán como punto de comparación. Pero tienen que agregar un elemento crucial para que las simulaciones sean significativas: una manera de traducir la física del sistema del agujero negro en una señal visual, como se vería desde el punto de vista de nuestros telescopios, a miles de millones de años luz de distancia.
Fuente: Texas Avanced Computer Center


El exceso de sal en la dieta puede conducir al desarrollo de enfermedades autoinmunes

En las últimas décadas los científicos han observado un aumento constante en la incidencia de las enfermedades autoinmunes en el mundo occidental. Dado que este aumento no puede explicarse únicamente por factores genéticos, los investigadores han formulado la hipótesis de que el aumento de estas enfermedades está vinculado con factores ambientales.

En ratones, el aumento en el consumo de sal resultó en una forma más severa de encefalomielitis autoinmune experimental, un modelo para la esclerosis múltiple. Crédito de la imagen: PublicDomainPictures (Pixabay)
En ratones, el aumento en el consumo de sal resultó en una forma más severa de encefalomielitis autoinmune experimental, un modelo para la esclerosis múltiple. Crédito de la imagen: PublicDomainPictures (Pixabay)

Entre los presuntos culpables están los cambios en los hábitos de la alimentación y del estilo de vida en los países desarrollados, donde los alimentos altamente procesados y la comida rápida a menudo forman parte del menú diario. Estos alimentos tienden a contener más sal que las comidas caseras. Este estudio es el primero que ha indicado que el consumo excesivo de sal puede ser uno de los factores ambientales que impulsan el aumento de la incidencia de enfermedades autoinmunes.
Ya se ha demostrado que el exceso de sal se acumula en el tejido y puede afectar a los macrófagos un tipo de células del sistema inmune. Independientemente, Markus Kleinewietfeld y David Hafler coautores del estudio, han observado cambios en células T auxiliares en seres humanos, que asociaron con hábitos alimenticios determinados. Los investigadores se plantearon la cuestión de si la sal podría impulsar estos cambios, y por lo tanto, también tener un impacto sobre otras células inmunes. Las células T auxiliares reciben avisos de peligro inminente de otras células del sistema inmune llamadas citoquinas, para “ayudar” a otras células a combatir agentes patógenos peligrosos y eliminar las infecciones. Un subgrupo específico de células T auxiliares produce la citoquina interleuquina 17 (Th17) que aparte de luchar contra las infecciones, desempeña un papel fundamental en el origen y evolución de enfermedades autoinmunes.
En experimentos de cultivo celular los investigadores mostraron que el aumento de cloruro de sodio (sal) puede conducir a una inducción drástica de células Th17 en un entorno específico de citoquinas. Los investigadores explicaron que en presencia de concentraciones elevadas de sal, este aumento puede ser diez veces mayor que en condiciones normales. Bajo condiciones de alta salinidad, las células se someten a más cambios en su perfil de citoquinas, resultando en células Th17 particularmente agresivas.
En ratones, el aumento en el consumo de sal resultó en una forma más severa de encefalomielitis autoinmune experimental, un modelo para la esclerosis múltiple. La esclerosis múltiple es una enfermedad autoinmune del sistema nervioso central en la que el sistema inmune del propio cuerpo destruye la capa aislante que se forma alrededor de las neuronas, y por lo tanto evita la transducción de señales, lo que puede conducir a una variedad de deficiencias neurológicas y discapacidad permanente.
Curiosamente, según los investigadores, el número de células proinflamatorias Th17 en el sistema nervioso de los ratones aumentó dramáticamente bajo una dieta alta en sal. Los investigadores demostraron que la dieta alta en sal aceleró el desarrollo de linfocitos T en células Th17 patogénicas. Los investigadores también realizaron un examen más detallado de estos efectos en experimentos de cultivo celular, y demostraron que la inducción del aumento de células Th17 agresivas está regulada por la sal a nivel molecular. “Estos resultados son una contribución importante a la comprensión de la esclerosis múltiple y pueden ofrecer nuevos objetivos para un mejor tratamiento de la enfermedad, para la que en la actualidad no existe una cura conocida”, dijo el neurólogo Ralf Linker, uno de los coautores del estudio.
Fuente: Max Delbrück Center for Molecular Medicine

 

 

Resuelven el enigma del espín de un agujero negro

Dos observatorios espaciales de rayos X, el NuSTAR de la NASA y el XMM-Newton de la Agencia Espacial Europea, se han unido para medir definitivamente la tasa de rotación o espín de un agujero negro con una masa de 2 millones de veces la del Sol. 

El agujero negro supermasivo, que se encuentra en el corazón lleno de polvo y gas de una galaxia llamada NGC 1365, tiene un espín casi tan rápido como el permitido por la teoría de la gravedad de Einstein. Los hallazgos, que aparecen en un nuevo estudio publicado en la revista Nature, resuelven un largo debate sobre mediciones similares en otros agujeros negros, y conducirán a una mejor comprensión de la evolución de los agujeros negros y de las galaxias.
Las observaciones también son una prueba importante de la teoría de la relatividad general de Einstein, que predice que la gravedad puede curvar el espacio-tiempo, el tejido que da forma a nuestro universo, y a la luz que viaja a través de éste.
“A medida que la materia que se arremolina en un agujero negro se le acerca, la podemos rastrear por medio de los rayos X que se emiten desde regiones muy cercanas al agujero”, dijo la coautora del estudio e investigadora principal de NuSTAR, Fiona Harrison, del Instituto de Tecnología de California en Pasadena. “La radiación que vemos está deformada y distorsionada por los movimientos de las partículas y la gravedad increíblemente fuerte del agujero negro”.
Hasta ahora no había certeza sobre las mediciones, debido a que las nubes de gas podrían haber estado ocultando los agujeros negros y confundiendo los resultados. Con la ayuda del XMM-Newton, y del NuSTAR los astrónomos lograron ver una gama más amplia de energías de rayos X, y penetrar más profundamente en la región alrededor del agujero negro. Los nuevos datos demuestran que las nubes no deforman los rayos X, sino que la causa es la enorme gravedad del agujero. Esto demuestra que las velocidades de espín de los agujeros negros supermasivos se pueden determinar de manera concluyente.
La medición del espín de un agujero negro supermasivo es fundamental para entender su historia y la de su galaxia anfitriona.
Los agujeros negros supermasivos están rodeados por discos de acreción similares a una tortilla, que se forman a medida que la gravedad atrae la materia hacia el interior. La teoría de Einstein predice que cuanto más rápido gira un agujero negro, más cerca estará el disco de acreción de éste. Y cuanto más cerca se encuentre el disco de acreción, más se deformará la luz de los rayos x despedidos desde el disco, debido a la mayor la gravedad del agujero negro.
Los astrónomos buscan estos efectos de deformación mediante el análisis de la luz de rayos X emitida por el hierro que circula en el disco de acreción. En el nuevo estudio utilizaron tanto a XMM-Newton. como a NuSTAR, para observar simultáneamente el agujero negro de NGC 1365. Mientras que el XMM-Newton ha revelado que la luz del hierro estaba siendo deformada, NuSTAR ha demostrado que esta distorsión provenía de la gravedad del agujero negro y no de las nubes de gas en la vecindad. Los datos de rayos X de mayor energía de NuSTAR mostraron que el hierro estaba tan cerca del agujero negro que su gravedad tenía que ser la causa de los efectos de deformación.
Ahora que se ha descartado la posibilidad de ocultamiento como producto de las nubes, los científicos pueden utilizar las distorsiones en la firma del hierro para medir la tasa del espín del agujero negro. Los hallazgos también se aplican a otro número de agujeros negros, y eliminan la incertidumbre que se tenía sobre sus tasas de rotación.
Fuente: NASA/JPL

 

martes, 5 de marzo de 2013

Describen la primera “cura funcional” del VIH en un bebé

Un equipo de investigadores del Centro Infantil Johns Hopkins, el Centro Médico de la Universidad de Mississippi y de la Escuela de Medicina de la Universidad de Massachusetts, ha descrito la “cura funcional” de un bebé infectado por el VIH. El hallazgo, dicen los investigadores, podría ayudar a allanar el camino hacia la eliminación de la infección por VIH en los niños.

Imagen combinada de micrografía electrónica de barrido de un linfocito T humano (también llamada una célula T) del sistema inmune de un donante sano, y una imagen de una célula T H9 infectada por el VIH. Crédito: NIAID
Imagen combinada de micrografía electrónica de barrido de un linfocito T humano (también llamada una célula T) del sistema inmune de un donante sano, y una imagen de una célula T H9 infectada por el VIH. Crédito: NIAID

El bebé, describe el informe, experimentó la remisión de la infección por el VIH tras recibir una terapia antirretroviral desde las 30 horas del nacimiento. Los investigadores dicen que la pronta administración del tratamiento antiviral probablemente condujo a la cura del bebé, al detener la formación de reservorios virales de difícil tratamiento – células durmientes responsables de reavivar la infección en la mayoría de los pacientes con VIH a las semanas de haberse suspendido la terapia.
En contraste con una cura esterilizante – una erradicación completa de todas las trazas virales del cuerpo – una cura funcional se produce cuando la presencia viral es tan mínima, que permanece indetectable por pruebas clínicas estándar, pero es discernible por métodos ultrasensibles.
El bebé que se describe en el informe nació de una madre infectada por el VIH, y recibió tratamiento antirretroviral combinado desde las 30 horas después del nacimiento. Una serie de pruebas mostraron la disminución progresiva de la presencia viral en la sangre del bebé, hasta que alcanzó niveles no detectables 29 días después del nacimiento. El niño permaneció en tratamiento con antivirales hasta los 18 meses de edad, cuando se detuvo el tratamiento. Diez meses después de la suspensión del tratamiento, al niño se le sometió a repetidos análisis de sangre, ninguno de los cuales detectaron la presencia del VIH en la sangre. La prueba de anticuerpos específicos contra el VIH – el indicador estándar clínico de la infección por VIH – también continuó siendo negativa.
Los investigadores advierten que en este momento no hay datos suficientes para recomendar el cambio de la práctica actual de tratamiento con dosis profilácticas, a uno con dosis terapéuticas en los lactantes de alto riesgo, pero que el caso presenta razones para iniciar estudios en los neonatos de alto riesgo.
Los investigadores dicen que su próximo paso es averiguar si se trata de una respuesta altamente inusual a la terapia antirretroviral, o si es algo que se pueda replicar en otros recién nacidos de alto riesgo.
A pesar de la promesa de este enfoque, los investigadores dicen que la prevención de la transmisión de madre a hijo sigue siendo el objetivo principal.
Fuente: University of Massachusetts Medical School 

Cómo el cerebro pierde y recobra el conocimiento

Desde mediados del siglo XIX, los médicos han usado fármacos para inducir anestesia general en pacientes sometidos a cirugía. A pesar de su uso generalizado, poco se sabe acerca de cómo esos fármacos provocan una pérdida profunda de la conciencia.




En un nuevo estudio, que dio seguimiento a la actividad cerebral en voluntarios humanos durante un período de dos horas a medida que perdieron y recobraron el conocimiento, investigadores del MIT y del Massachusetts General Hospital (MGH) han identificado patrones distintivos del cerebro, asociados con las diferentes etapas de la anestesia general. Los hallazgos arrojan luz sobre la forma en que un fármaco comúnmente utilizado en anestesia ejerce sus efectos, y podría ayudar a los médicos a dar un mejor seguimiento de los pacientes durante la cirugía, y evitar los casos raros de pacientes que se despiertan durante las operaciones.
Los anestesistas ahora se basan en un sistema de monitoreo que toma información electroencefalográfica (EEG) y la combina en un número único entre cero y 100. Sin embargo, según los autores del nuevo estudio, ese índice en realidad oculta información que es de utilidad.

Patrones distintivos

En el nuevo estudio, los investigadores estudiaron a voluntarios sanos, y midieron su actividad cerebral con un conjunto de 64 electrodos colocados en el cuero cabelludo. No sólo encontraron patrones que parecían corresponder a lo que vieron en un estudio anterior con pacientes epilépticos (a los que se había implantado electrodos como parte de su tratamiento) sino que lograron discernir muchos más detalles, ya que administraron la dosis de propofol durante un período más largo de tiempo, y dieron seguimiento a los pacientes hasta que salieron de la anestesia.
Mientras los pacientes recibieron propofol, los investigadores monitorearon su capacidad de respuesta a los sonidos. Cada cuatro segundos, los pacientes escucharon, ya sea un tono mecánico o una palabra (como por ej., su nombre). Los investigadores midieron la actividad de EEG durante todo el proceso, debido a que los pacientes pulsaban un botón para indicar si oían el sonido.
A medida que los pacientes se volvieron menos receptivos, surgieron distintos patrones cerebrales. Al principio, cuando los pacientes estaban empezando a perder el conocimiento, los investigadores detectaron una oscilación de la actividad cerebral en las bandas de baja frecuencia (0,1 a 1 hertz) y frecuencia alfa (8 a 12 hertz), en la corteza frontal. También encontraron una relación específica entre las oscilaciones en las dos bandas de frecuencia: las oscilaciones alfa alcanzaron su punto máximo cuando las ondas de baja frecuencia estaban en su punto más bajo.
Cuando el cerebro alcanzó un nivel de anestesia un poco más profundo, ocurrió una transición notable: las oscilaciones alfa se invirtieron, de manera que sus puntos más altos se produjeron cuando las ondas de baja frecuencia también estaban en su punto alto.
Los investigadores creen que estas oscilaciones alfa y de baja frecuencia, que también las detectaron en el estudio anterior con epilépticos, provocan la pérdida del conocimiento mediante la interrupción de la comunicación normal entre las diferentes regiones del cerebro. Las oscilaciones parecen limitar la cantidad de información que puede pasar entre la corteza frontal y el tálamo, que normalmente se comunican entre sí a través de una banda de frecuencia muy amplia para transmitir información sensorial y controlar la atención.
Las oscilaciones también evitan que las diferentes partes de la corteza se coordinen entre sí. En el estudio anterior, los investigadores encontraron que durante la anestesia, las neuronas dentro de pequeñas regiones cerebrales localizadas se activan durante unos pocos cientos de milisegundos, luego se apagan por unos pocos cientos de milisegundos. Este parpadeo de la actividad, que crea un patrón de oscilación lenta, evita que las regiones del cerebro se comuniquen con normalidad.

Un mejor seguimiento de la anestesia

Cuando los investigadores comenzaron a disminuir gradualmente la dosis de propofol, para sacar a los pacientes de la anestesia, observaron una inversión de los patrones de actividad cerebral que aparecieron cuando los pacientes perdieron el conocimiento. Unos minutos antes de recobrar el conocimiento, las oscilaciones alfa se invirtieron, de manera que se encontraban en su punto más alto cuando las ondas de baja frecuencia estaban en su punto más bajo.
Los casos en los que los pacientes recuperan la conciencia durante la cirugía son alarmantes pero muy raros, con una o dos apariciones en cada 10.000 operaciones, dijo el coautor Emery Brown, profesor del MIT de ciencias cerebrales y cognitivas y de ciencias de la salud y tecnología, así como anestesista en el MGH.
“No es algo con lo que luchemos todos los días, pero cuando sucede, se crea este miedo visceral en el público, que es muy comprensible. Los anestesistas no tienen una manera de responder, ya que realmente no saben cuando se está inconsciente”. Brown añadió que se trata de un problema que han resuelto.
Los investigadores han comenzando un programa de entrenamiento para los anestesistas y residentes del MGH, con el fin de capacitarlos en la interpretación de la información necesaria para medir la profundidad de la anestesia. Esa información está disponible a través de los monitores de EEG que se utilizan en la mayoría de las operaciones. Debido a que el propofol es el fármaco más utilizado en anestesia, los nuevos hallazgos deberían ser de utilidad para la mayoría de las operaciones.
En estudios de seguimiento, los investigadores están estudiando los patrones de actividad cerebral producidos por otros fármacos anestésicos.
En YouTube se publica un vídeo que muestra datos espectrográficos (que representan las frecuencias de las ondas cerebrales) de cada uno de los 44 electrodos colocados en el cuero cabelludo de un voluntario sano que se sometió a anestesia por propofol.
El estudio se publica en Proceedings of the National Academy of Sciences.
Fuente: MIT
Artículo original escrito por Anne Trafton, MIT News Office

 

sábado, 2 de marzo de 2013

Descubren moléculas precursoras de componentes del ADN en el espacio

Por medio de nueva tecnología, tanto en el telescopio, como en los laboratorios, los investigadores han descubierto dos moléculas prebióticas de importancia en el espacio interestelar. Los descubrimientos indican que algunos productos químicos básicos, que son pasos claves en el camino hacia la vida, pueden haberse formado en granos polvorientos de hielo que flotan entre las estrellas.



Los científicos usaron el Telescopio Green Bank Telescope (GBT), de la Fundación Nacional de Ciencias, para estudiar una nube gigante de gas a unos 25.000 años luz de la Tierra, cerca del centro de nuestra galaxia, la Vía Láctea. Los productos químicos que se encuentran en esa nube incluyen una molécula que se piensa que es precursora de un componente clave del ADN, y otra que puede tener un papel en la formación del aminoácido alanina.
Una de las moléculas recién descubiertas, llamada cianometanimina, es un paso en el proceso que los químicos creen que produce adenina, una de las cuatro nucleobases que forman los “escalones” en la estructura de tipo escalera del ADN. La otra molécula, llamada etanamina, se cree que desempeña un papel en la formación de la alanina, uno de los veinte aminoácidos en el código genético.
Anthony Remijan, del Observatorio Nacional de Radio Astronomía (NRAO) dijo que el descubrimiento de estas moléculas en una nube de gas interestelar significa que los bloques de construcción de importancia para el ADN, y los aminoácidos, pueden servir de ‘semilla’ de los precursores químicos para la vida, al depositarse en planetas recién formados.
En cada caso, las moléculas interestelares recién descubiertas son etapas intermedias en los procesos químicos de múltiples pasos que conducen a la una molécula biológica final. Los detalles de los procesos no están claros, pero los descubrimientos dan una nueva idea de donde se producen estos procesos.
Los científicos han pensado que estos procesos se llevan a cabo en el gas muy tenue entre las estrellas. Los nuevos descubrimientos, sin embargo, sugieren que las secuencias de formación química de estas moléculas no se producen en gas, sino sobre las superficies de los granos de hielo en el espacio interestelar.
“Tenemos que hacer más experimentos para entender mejor cómo funcionan estas reacciones, pero puede ser que algunos de los primeros pasos de importancia hacia los productos químicos biológicos se producen en pequeños granos de hielo”, concluyó Remijan.
Los investigadores han publicado sus hallazgos en la revista Astrophysical Journal Letters.
Fuente: National Radio Astronomy Observatory

 

viernes, 1 de marzo de 2013

Científico adelanta que se vienen ‘grandes anuncios’ respecto a la materia oscura


materia oscura hubble

La NASA tiene un módulo experimental de física de partículas en la Estación Espacial Internacional llamado Espectrómetro Magnético Alpha –especialmente diseñado para medir los rayos cósmicos y así detectar varias clases de materia exótica– donde el líder del proyecto afirmó en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia que próximamente habrán grandes anuncios en relación con la materia oscura.
Esto es porque el físico del MIT y quien dirige el experimento, Samuel Ting, aseguró que dentro de poco publicarán un artículo –que ha sido más de 30 veces reescrito– en una revista científica con los primeros resultados del Espectrómetro Magnético Alpha, donde si bien no quiso entrar en detalles, aseguró que es un ‘pequeño paso‘ en el camino para lograr comprender en qué consiste la materia oscura.
Cuando los astrónomos comenzaron a medir la velocidad de las galaxias en los clústeres, o la de las estrellas al interior de las galaxias, detectaron que faltaba mucha masa para justificar estas velocidades. Como esta masa hipotética no se ha podido detectar con telescopios ni con ningún otro tipo de mecanismo, sino que sólo midiendo su influencia, se le bautizó como materia oscura.
Lo que es increíble es que no hablamos de un objeto en particular distante y pequeño, pues se calcula que el 84% de la materia del universo es materia oscura. Algunos teóricos afirman que podría estar constituida de unas partículas hipotéticas apodadas WIMP (siglas en inglés de “partículas masivas que interactúan débilemente”), una clase de partícula que es su propio equivalente de antimateria, por lo que si se juntan dos partículas WIMP explotan lanzando un electrón y un positrón en el proceso.
El Espectrómetro Magnético Alpha tiene el potencial de detectar estos electrones y positrones (su equivalente en antimateria) producidos por explosiones de antimateria de materia oscura en la Vía Láctea.
De hecho, desde su inauguración en mayo del 2011 ya ha detectado unos 25 mil millones de eventos, de los cuales se cree que unos 8 mil millones son electrones y positrones. Ting afirmó que el artículo científico ahondará en mayor detalle esta información, explicando que tipos de energía detectaron y en que partículas.
La señal que se busca con el experimento es un gran aumento seguido de un dramático descenso en el número de positrones con respecto a la energía, porque como hay muy pocos procesos conocidos capaces de generar positrones, los generados por una explosión de materia oscura tendrían ese específico tipo de energía.
Otra cosa que nos podría indicar que se logró detectar positrones de materia oscura sería es que si las partículas provienen desde una dirección en particular, o de todo el espacio alrededor nuestro. Si son de materia oscura, los científicos esperan que las partículas provengan homogéneamente desde todo el espacio alrededor nuestro, porque si provienen de una dirección en particular, podrían ser generadas por un evento astronómico específico como la explosión de una estrella.
Link: Has Dark Matter Finally Been Found? Big News Coming Soon (Space.com)