miércoles, 31 de julio de 2013

Estudiante de Astronomía UC descubre una nueva nova




A diferencia de las supernovas, estos fenómenos no terminan en la destrucción de la estrella que los origina. El hallazgo, realizado desde el Instituto de Astrofísica UC, sería de un tipo especial del que sólo se conoce una decena de ellos.

Las novas son estrellas binarias -donde una de ellas es una enana blanca- y que en una especie de baile caníbal una le quita a la otra parte del gas. Llegado cierto punto, la enana blanca acumula suficiente material en su superficie y éste comienza a "quemarse". Esto produce un aumento considerable del brillo.
“Descubrimos una estrella que hizo algo parecido y la denominamos VVV-NOV-003, pero tiene una particularidad interesante, esta nova apareció (o entró en "erupción") a principios de octubre del 2011, y ha estado brillando cerca del máximo hasta ahora”, cuenta Juan Carlos Beamin, estudiante de doctorado del Instituto de Astrofísica UC y cabeza del hallazgo. “Una posibilidad es que se trate de una nova simbiótica, que es un tipo particular de nova de las cuales se conocen sólo unas 10”.
Los astrónomos pudieron detectar el fenómeno porque el aumento del brillo es bastante "violento", es decir, el objeto puede volverse centenares o hasta varias miles de veces más brillante en cuestión de días. “Una vez que logran alcanzar su máximo brillo, comienzan a decaer lentamente y al cabo de unos meses las estrellas vuelven a su brillo original. Estos episodios eruptivos pueden repetirse al pasar los años”, explica Beamin.
“Las novas despiden una cantidad notablemente menor de energía que una supernova, por ello es que no debemos confundirlas”, continúa. En una nova la enana blanca no se destruye como en el caso de la supernova y es por esto que puede producirse un nuevo episodio eruptivo, a diferencia de una supernova donde sólo se origina una vez.
Para encontrarla, los astrónomos obtuvieron tres imágenes de la misma zona en 2010, 2011 y 2012. La última les confirmó la presencia de la nova.
Ilustración: Joyce Pullen
Foto: Juan Carlos Beamin
Más informaciones: 
Lorena Guzmán H.
lguzman@astro.puc.cl



lunes, 29 de julio de 2013

Robots moleculares para luchar contra las enfermedades


Muchos fármacos, tales como agentes para el cáncer o enfermedades autoinmunes, tienen efectos secundarios desagradables porque atacan, tanto a las células causantes de enfermedades, como a las sanas. Ahora, un nuevo estudio ha demostrado una técnica para el desarrollo de fármacos más específicos, mediante el uso de “robots” moleculares, que pueden dirigirse más directamente a las células responsables de las enfermedades.

La imagen ilustra a nanorobots en el corriente sanguíneo. Algo similar podría convertirse en realidad mediante un estudio que ha usado robots moleculares para atacar más específicamente a las células que causan enfermedades. Crédito: Victor Habbick (Freedigitalphotos.net)
La imagen ilustra a nanorobots en el corriente sanguíneo. Algo similar podría convertirse en realidad mediante un estudio que ha usado robots moleculares para atacar más específicamente a las células que causan enfermedades. Crédito: Victor Habbick (Freedigitalphotos.net)
Las células tienen muchos receptores en su superficie, y cuando los anticuerpos o los fármacos se unen a un receptor, se activa una célula que realiza una función determinada o se comporta de una manera determinada. Los medicamentos pueden dirigirse a las células causantes de enfermedades mediante la unión a un receptor, pero en algunos casos las células causantes de enfermedades no tienen receptores únicos, y por lo tanto los fármacos también se unen a las células sanas, de ahí los efectos secundarios.
Por ejemplo, Rituximab se utiliza para tratar la artritis reumatoide y otras enfermedades mediante la unión a los receptores CD20 de las células aberrantes que causan las enfermedades. Sin embargo, ciertas células inmunes también tienen receptores CD20 y por lo tanto el fármaco puede interferir con el sistema inmune.
En el nuevo estudio, los científicos han creado robots moleculares que pueden identificar receptores múltiples en la superficie celular, lo que resulta en un etiquetamiento efectivo de subpoblaciones más específicas de células. Los robots moleculares, llamados autómatas moleculares, se componen de una mezcla de anticuerpos y de hebras cortas de ADN. Estas hebras cortas de ADN, también llamadadas oligonucleótidos, se pueden fabricar en el laboratorio con cualquier secuencia especifica.
Los investigadores mezclaron sangre humana de donantes sanos con sus robots moleculares. Cuando un robot molecular que lleva un anticuerpo CD45 se unió a un receptor de CD45 de una célula, y un robot molecular que lleva un anticuerpo CD3 se unió a un receptor acogedor de la misma célula, la estrecha proximidad de las hebras de ADN de los dos robots provocó una reacción en cascada, en la que ciertas hebras se rompieron, y las hebras más complementarias se unieron entre sí. El resultado fue una hebra única de ADN visible únicamente a las células que tenía los dos receptores.
La adición de un robot molecular que se une a anticuerpos CD8 en una célula que expresa CD45, CD3 y CD8 causó que esta hebra creciera. Los investigadores también demostraron que la hebra se podría programar para fluorecer al ser expuesta a una solución. Esencialmente los robots pueden etiquetar una subpoblación de células que permiten una terapia más específica. Los investigadores dicen que los robots moleculares permitirán concentrarse en subgrupos cada vez más específicos de poblaciones celulares. En el lenguaje de programación de ordenadores, los robots moleculares están realizando lo que se conoce como un “si es afirmativo, proceder a la función X”.
Si los robots moleculares dan resultado en estudios con ratones, y eventualmente en ensayos clínicos con humanos, los investigadores piensan que habrá una gama amplia de posibles aplicaciones clínicas. Por ejemplo, los pacientes con cáncer pueden beneficiarse de quimioterapia más específica. Los medicamentos para enfermedades autoinmunes podrían adaptarse más específicamente para afectar las células causantes de enfermedades autoinmunes, y no las células inmunes que se necesitan para luchar contra las infecciones.
El estudio se publica en Nature Nanotechnology.

domingo, 7 de julio de 2013

Revelada la identidad oculta de un exoplaneta

Una estrella, que los astrónomos denominan HD 97658, es en términos estelares, nuestra “vecina de al lado”, ya que se encuentra a unos 70 años luz de la Tierra . Pero la verdadera “estrella” es el exoplaneta HD 97658b, de un poco más del doble de diámetro de la Tierra, y un poco menos de ocho veces su masa. HD 97658b es una “supertierra”, una clase de planeta que no se encuentra en nuestro sistema solar.

El tamaño relativo de la Tierra y el Sol junto a los de HD 97658 (la estrella) y HD 97658b (el exoplaneta). Crédito: Jason Eastman y Diana Dragomir
El tamaño relativo de la Tierra y el Sol junto a los de HD 97658 (la estrella) y HD 97658b (el exoplaneta). Crédito: Jason Eastman y Diana Dragomir


Aunque el descubrimiento de este exoplaneta no es nuevo, la determinación de su verdadero tamaño y su masa sí lo es. La investigadora postdoctoral Diana Dragomir, por medio del Teslescopio de Observación Global de la Universidad de California Santa Barbara (LCOGT), fue la responsable de los hallazgos, para lo que utilizó los tránsitos de este exoplaneta.
Una supertierra es un planeta extrasolar con una masa y un radio de entre los de la Tierra y Neptuno. El término supertierra se refiere a la masa del planeta, y no implica que sea similar a la Tierra en cuento a su temperatura, composición o ambiente. El brillo de HD 97658 permite que los astrónomos puedan estudiar tanto la estrella, como el planeta de una manera que no es posible para la mayoría de los sistemas de exoplanetas que se han descubierto alrededor de estrellas más débiles.
Los tránsitos, como los observadas por Dragomir, se producen cuando la órbita de un planeta lo lleva frente a su estrella, lo que reduce muy ligeramente la cantidad de luz que recibimos de la estrella. La disminución en el brillo ocurre en todas las órbitas, si es que la órbita se encuentra casi exactamente alineada con nuestra línea de visión desde la Tierra.
Dragomir dice que la medición de las propiedades de las supertierras nos indica si son rocosas, ricas en agua, pequeñas gigantes gaseosas, o algo completamente diferente.
La densidad media de HD 97658b es de aproximadamente cuatro gramos por centímetro cúbico, un tercio de la densidad del plomo, pero más denso que la mayoría de las rocas. Los astrónomos perciben una gran importancia en el valor, que es del 70% de la densidad media de la Tierra, ya que la gravedad en la superficie de HD 97658b podría permitir que tenga una atmósfera densa. Sin embargo, es poco probable que una vida extraterrestre respire en esa atmósfera, ya que el planeta orbita su estrella cada 9,5 días, a una distancia unas doce veces más cerca que la de la Tierra al Sol, por lo que se encuentra muy cerca de su estrella para estar en la zona habitable.
El estudio se publica en Astrophysical Journal Letters.
Fuente: University of California, Santa Barbara

El supersentido de los cocodrilos

Los poco comprendidos órganos multi-sensoriales en la piel de los crocodilios son sensibles al tacto, el calor, el frío, y los estímulos químicos en su entorno, y no tienen ningún equivalente en ningún otro vertebrado.

La piel de los cocodrilos contiene sensores sensibles al tacto, el calor, el frío y los estímulos químicos, sin equivalente en los vertebrados. Crédito de la imagen: Radek Vitoul (flickr)
La piel de los cocodrilos contiene sensores sensibles al tacto, el calor, el frío y los estímulos químicos, sin equivalente en los vertebrados. Crédito de la imagen: Radek Vitoul (flickr)


El orden de los crocodilios, que incluye a los cocodrilos, los caimanes y los gaviales, tienen escamas epidérmicas particularmente duras que consisten en placas óseas y de queratina, que les brindan mayor protección. En la cabeza, estas escalas son inusuales, ya que resultan de grietas en la piel endurecida, en vez de que su forma esté determinada genéticamente.
Las escalas tienen sensores conocidos como receptores de presión de cúpula (DPR) u órganos sensoriales tegumentarios (ISOs) con una sensibilidad similar a la de la punta de los dedos. Investigadores de la Universidad de Ginebra estudiaron los ISOs de cocodrilos del Nilo (Crocodylus niloticus) y de caimanes (Caiman crocodilus) para averiguar exactamente lo que pueden ‘ver y cómo se forman’ estos micro-organismos.
Los ISOs aparecen en la cabeza del caimán en desarrollo y en embriones de cocodrilo antes de que la piel comience a agrietarse y a formar escamas. Además, los cocodrilos del Nilo desarrollan ISOs por todo el cuerpo. En los animales, los ISOs contienen mecano-, termo- y quimo-sensores, que les brindan una capacidad combinada para detectar el tacto, el calor/frío y los estímulos químicos, pero no a la salinidad. Los cocodrilos del Nilo tienen sobre sus lenguas glándulas separadas para detectar la sal, que les ayudan a regular la osmolaridad en ambientes hiper-salinos.
Esto significa que pueden detectar ondas de presión de superficie que les permiten encontrar rápidamente presas, incluso en la oscuridad. La sensibilidad térmica les ayuda a mantener la temperatura corporal, al desplazarse entre entre el sol y el frescor del agua, y los sensores químicos les pueden ayudar a detectar los hábitats adecuados.
El profesor Michel Milinkovitch, quien dirigió el estudio, ha explicado que los “sensores ISO son notables, porque no sólo son capaces de detectar diferentes tipos de estímulos físicos y químicos, sino también porque no tienen un equivalente en ningún otro vertebrado. La transformación de un sistema sensorial difuso, como el que tenemos en nuestra propia piel, en ISOs, es lo que ha permitido que los cocodrilos evolucionen una piel muy sensible pero altamente blindada”.
La investigación se publica en la publicación científica EvoDevo.
Fuente: BioMed Central

Las enfermedades neurodegenerativas en 2030

Los casos de enfermedades neurodegenerativas aumentarán drásticamente para el año 2030 debido al aumento de la esperanza de vida. Un equipo del INSERM ha desarrollado un modelo estadístico para estimar la importancia de este fenómeno, y el impacto de la prevención de ciertos factores de riesgo.

Los investigadores franceses prevén un aumento significativo del 75% en la incidencia de enfermedades neurodegenerativas hacia el año 2030, pero hay esperanza de que los avances en la medicina reduzcan la incidencia. Crédito de la imagen: ddpavumba (freedigitalphotos.net)
Los investigadores franceses prevén un aumento significativo del 75% en la incidencia de enfermedades neurodegenerativas hacia el año 2030, pero hay esperanza de que los avances en la medicina reduzcan la incidencia. Crédito de la imagen: ddpavumba (freedigitalphotos.net)


Las cifras hablan por sí solas: un aumento del 75% de los casos de enfermedades neurodegenerativas en la población general entre 2010 y 2030, y un aumento del 200% entre la población de más de 90 años. La enfermedad de Alzheimer representa un 60 a un 70% de los casos de enfermedades neurodegenerativas.
Estas estimaciones, de un equipo de epidemiólogos del Inserm, son un poco escalofriantes, pero son necesarias para anticipar las necesidades y gestionar esa evolución social.

Una estimación más precisa que la anterior

Hélène Jacqmin-Gadda, coautora del estudio, dice que las estimaciones sobre el número de casos de enfermedades neurodegenerativas en 2030 son altas, pero son más precisas que las obtenidas hasta ahora, ya que se ha tenido en cuenta que las personas sin enfermedades neurodegenerativas tienen una esperanza de vida más larga que las que sí las sufren. Y que al alargar la vida útil de este grupo, se ve una mayor reserva potencial para la aparición de la demencia, especialmente después de los 90 años. Sin embargo, estas cifras se basan en la suposición de que la tasa de incidencia anual es constante a lo largo de los años. Pero algunos estudios recientes sugieren una disminución de la incidencia.

El control de los factores de riesgo

Los investigadores también evaluaron el impacto de las medidas preventivas. Creen, por ejemplo, que una intervención efectiva para controlar la hipertensión en la población en general reduciría en 2,7% el número de casos de enfermedades neurodegerativas en 2030, entre las personas de 65 a 85 años.
Otro ejemplo es el uso de un fármaco (no disponible en la actualidad) dirigido a los portadores del alelo ε4 del gen de la apolipoproteína, que aumenta el riesgo sufrir de demencia. Dicho fármaco reduciría de un 15 a un 25% la incidencia de enfermedades neurodegenerativas. “Esta estrategia no aumenta la esperanza de vida, sino que se dirige directamente a los mecanismos de la demencia, obteniendo de este modo una reducción significativa en su incidencia”, concluye la investigadora.
Fuente: Iserm

En la metástasis los tumores son un híbrido de células cancerosas y glóbulos blancos

Científicos del Centro Yale para el Cáncer, junto con colegas del Laboratorio Criminal de la Policía de Denver, y de la Universidad de Colorado, han encontrado evidencia de que la metástasis de tumores humanos puede surgir cuando un leucocito (glóbulo blanco) y una célula cancerosa se fusionan para formar un híbrido genético. El estudio puede responder a la pregunta de cómo las células cancerosas se desplazan desde el sitio del tumor primario de origen a órganos y tejidos distantes del cuerpo – en el proceso mortal conocido como metástasis.

Los científicos han confirmado en seres humanos una teoría de más de 100 años, de que la metástasis es el resultado de la fusión de células cancerosas y glóbulos blancos. Crédito de la imagen: Dream Designs (freedigitalphotos.net)/Wikipedia Commons
Los científicos han confirmado en seres humanos una teoría de más de 100 años, de que la metástasis es el resultado de la fusión de células cancerosas y glóbulos blancos. Crédito de la imagen: Dream Designs (freedigitalphotos.net)/Wikipedia Commons


Esta teoría fue propuesta por primera vez como una explicación para la metástasis hace más de un siglo. Pero hasta ahora, la teoría no se había probado en el cáncer humano, debido a que no se pueden distinguir las diferencias genómicas entre las células del mismo paciente. Para solucionar este problema, los investigadores analizaron el ADN genómico de los tumores malignos secundarios de un paciente con un melanoma cerebral metastásico, que había recibido un trasplante de médula ósea de su hermano.
En las células tumorales encontraron la firma genética, tanto del paciente como del donante, lo que proporciona la primera evidencia de que los leucocitos (en este caso del donante) pueden fusionarse con las células de cáncer e iniciar un tumor.
“Nuestros resultados proporcionan la primera prueba en humanos de una teoría propuesta en 1911 por un patólogo alemán, que la metástasis puede ocurrir cuando un leucocito y una célula cancerosa se funden para formar un híbrido genético”, dijo el coautor John Pawelek, investigador del departamento de dermatología de la Escuela de Medicina de Yale. “Esto podría abrir el camino a nuevas dianas terapéuticas, pero se necesita hacer mucho trabajo para determinar cómo se produce la fusión, la frecuencia de este tipo de híbridos en los cánceres humanos, y el papel potencial de los híbridos en la metástasis”, concluyó.
El estudio se publica en PLOS ONE.
Fuente: University of Yale

Las parejas felices son más saludables

Una nueva investigación de la Universidad Brigham Young (BYU) ha encontrado que las parejas felices disfrutan más de la vida “en salud” y viven menos “en enfermedad”.

El nuevo estudio ha encontrado que las parejas felices gozan de una mejor salud, posiblemente por el apoyo que se brindan entre sí. Crédito: Brigham Young University
El nuevo estudio ha encontrado que las parejas felices gozan de una mejor salud, posiblemente por el apoyo que se brindan entre sí. Crédito: Brigham Young University



En un estudio longitudinal de 20 años, que dio seguimiento a la salud y la calidad del matrimonio, Rick Miller, investigador de la vida familiar de BYU encontró que cuando la calidad del matrimonio se mantiene a lo largo de los años, las parejas felices también mantienen una buena salud física.
“En investigaciones anteriores se encontró evidencia de que el conflicto marital conduce a problemas de salud”, dice Miller, y agrega que este estudio muestra que las parejas felices tienen un componente preventivo que las mantiene en un buen estado de salud a través de los años.
Un estudio previo de BYU atrajo la atención cuando se descubrió que las relaciones significativas ayudan a que las personas vivan por más tiempo. El estudio muestra que las relaciones matrimoniales positivas mantienen la salud a largo plazo.
El estudio utilizó datos de una muestra nacional representativa (de EE.UU.) de 1.681 personas casadas, al que se le dio seguimiento a lo largo de dos décadas – lo que lo convierte en el estudio más largo sobre la calidad marital y la salud hasta la fecha.
Miller y sus colegas cuantificaron la calidad del matrimonio de dos maneras: En primer lugar, en términos de felicidad y satisfacción, y, en segundo, en cuanto a problemas de pareja (¿Discuten sobre dinero? ¿Tienen problemas con los parientes políticos?). Los encuestados calificaron la salud de su matrimonio en una escala de 1 (excelente) a 4 (pobre).
Los resultados mostraron que las personas con mayores conflictos conyugales eran más propensas a reportar problemas de salud.
“La implicación es que el conflicto marital es un factor de riesgo de mala salud”, dice Miller. “Las parejas que se pelean o discuten con frecuencia deben buscar ayuda profesional para reducir el conflicto, ya que afecta su salud”.
Miller espera que el creciente número de investigaciones sobre la importancia del matrimonio llame la atención de las autoridades. Por ejemplo, Miller (y muchos colegas) creen que los seguros de salud deberían cubrir la terapia de pareja, ya que puede ayudar a reforzar el matrimonio, y prevenir futuros problemas de salud.
Para ese fin, el mantenimiento de un matrimonio feliz también tiende a inspirar hábitos que conducen a una mejor salud. Las parejas felices se alientan entre sí a mantenerse al día con las citas médicas, a dormir mejor, a beber menos, y a participar en actividades saludables.
Miller añade que el apoyo mutuo que se brindan entre sí las parejas felices reduce el estrés y ayuda a amortiguar el deterioro de la salud.
El estudio se publica en Journal of Marriage and Family.
Fuente: Brigham Young University

Validan chip de computación cuántica

Una investigación de la Universidad de California del Sur (USC) ha encontrado que los efectos cuánticos son verdaderamente funcionales en un prototipo de chip de computación cuántica.

El chip de computación cuántica, D-Wave, fue validado con un subconjunto de 8 qubits, del total de 128 con que cuenta. Crédito de la imagen: Renjith Krishnan (freedigitalphotos.net)/Jayanta Behera (stock.xchng)
El chip de computación cuántica, D-Wave, fue validado con un subconjunto de 8 qubits, del total de 128 con que cuenta. Crédito de la imagen: Renjith Krishnan (freedigitalphotos.net)/Jayanta Behera (stock.xchng)



El chip, llamado D-Wave, está ubicado en el Centro de Computación Cuántica Lockheed Martin de la USC. La demostración se produjo con un pequeño subconjunto de los 128 qubits del chip.
Esto significa que el dispositivo parece estar funcionando como un procesador cuántico – algo que los científicos habían esperado, pero han necesitado numerosas pruebas para verificarlo.
El procesador cuántico fue adquirido del fabricante canadiense D-Wave hace casi dos años por Lockheed Martin. Por ser el primero de su clase, la tarea de los científicos ha sido determinar si el ordenador cuántico verdaderamente funciona como se esperaría.
“Usando un problema de prueba, que involucró ocho qubits, hemos comprobado que el procesador D-Wave realiza cálculos de optimización (es decir, encuentra soluciones de energía más baja) mediante un procedimiento que es consistente con la hibridación cuántica, y es incompatible con las predicciones de la hibridación clásica” dijo Daniel Lidar, director científico del Centro de Computación Cuántica y uno de los investigadores del equipo.
La hibridación cuántica es un método para resolver problemas de optimización utilizando la mecánica cuántica – a una escala lo suficientemente grande, potencialmente mucho más rápido de lo que se puede lograr con un procesador tradicional.
Las instituciones de investigación de todo el mundo construyen y usan procesadores cuánticos, pero la mayoría sólo tienen unos pocos bits cuánticos o qubits.
Los qubits tienen la capacidad de codificar los dígitos uno y cero al mismo tiempo – en contraposición a los bits tradicionales, que solo pueden codificar ya sea un uno o un cero. Esta propiedad, llamada “superposición”, junto con la capacidad de los estados cuánticos de alcanzar el “efecto túnel” y penetrar las barreras de energía, se espera que sea importante para que las generaciones futuras del procesador D-Wave puedan realizar cálculos de optimización más rápidamente que los procesadores tradicionales.
La investigación del equipo de la USC muestra que el chip, de hecho, se desempeña en gran medida como se esperaba, lo que demuestra el potencial para la optimización cuántica en una mayor escala que en el pasado.
La noticia llega apenas dos meses después de que el Centro de Computación Cuántica actualizó el chip D-Wave orginal, comercialmente conocido como “Rainier”, con un chip más potente de 512 qubits, conocido como “Vesubio”. El Centro de Computación Cuántica mantiene una caja de protección magnética a una temperatura cercana al cero absoluto, con el fin de proteger el equipo contra la decoherencia, y fue diseñado para ser actualizable con los últimos avances en el campo.
El nuevo chip Vesubio de la USC es actualmente es el único en funcionamiento fuera de D-Wave. Un segundo ejemplar del chip, propiedad de Google, está alojado en el Centro de Investigaciones Ames de la NASA en Moffett Field, California, y se espera que entre en funcionamiento a finales de este año.
Ahora, el equipo de la USC se propone probar el chip Vesubio, siguiendo los mismos pasos que con el chip Rainier.
El estudio se publica en Nature Communications.
Fuente: The University of Southern California

Energía solar a partir de un anticongelante de bajo costo

Un proceso que combina algunos materiales relativamente baratos, y el mismo anticongelante que evita que los radiadores de los automóviles se congelen durante el invierno, puede ser la clave para la producción de energía solar que cueste menos, y sin el uso de compuestos tóxicos.

Estas nanopartículas de sulfuro de cobre zinc estaño se procesan con un anticongelante común para producir celdas solares de buena calidad, que podrían conducir a la producción de energía solar de bajo costo. (Imagen cortesía de la Universidad Estatal de Oregon)
Estas nanopartículas de sulfuro de cobre zinc estaño se procesan con un anticongelante común para producir celdas solares de buena calidad, que podrían conducir a la producción de energía solar de bajo costo. (Imagen cortesía de la Universidad Estatal de Oregon)


Ingenieros de la Universidad Estatal de Oregón (OSU) han determinado que el glicol de etileno, comúnmente utilizado en los productos anticongelantes, puede ser un disolvente de bajo costo, que funciona bien en un reactor de “flujo continuo” – un método para fabricar celdas solares de película delgada, que fácilmente se puede escalar para la producción en masa a nivel industrial.
La investigación también llegó a la conclusión de que este enfoque funciona con sulfuro de cobre estaño zinc (CZTS), un compuesto de interés en la energía solar, debido a sus excelentes propiedades ópticas y al hecho de que estos materiales son baratos y medioambientalmente benignos.
Por el contrario, muchas celdas solares actuales se fabrican a base de cobre, indio, galio y selenio (CIGS). El indio, que mayormente se produce en China, es relativamente raro y costoso. El año pasado, los precios del indio y del galio, utilizados en las celdas solares CIGS, fueron alrededor de 275 veces mayores que los del zinc que se utiliza en células CZTS.
La tecnología que se desarrolla en OSU utiliza glicol de etileno en los reactores meso-fluídicos, que pueden ofrecer un control preciso de la temperatura, del tiempo de reacción, y de la masa de transporte para producir una mejor calidad cristalina y una mayor uniformidad de las nanopartículas que comprenden la celda solar – que son factores que anticipan un bajo costo de producción de la energía solar.
Este enfoque también es más rápido, ya que el proceso de síntesis de nanopartículas GIGS puede tardar hasta todo un día, mientras que al reactor de flujo continuo le toma media hora. La velocidad adicional de los reactores contribuirá también a la reducción de los costos finales.
El rendimiento de las celdas CZTS actualmente es más bajo que el de las celdas CIGS, dicen los investigadores, pero con una mayor investigación sobre el uso de dopantes, y la optimización adicional que se deberá lograr, se pueden llegar a producir celdas solares CIGS con una eficiencia comparable.
La investigación se publica en Material Letters y se puede leer aquí.
Fuente: Oregon State University

Enana blanca arroja luz sobre la posible variabilidad de una constante de la naturaleza

Un equipo internacional, liderado por la Universidad de Nueva Gales del Sur, ha estudiado una distante estrella enana blanca en la que la gravedad es más de 30.000 veces mayor que en la Tierra, para probar su controvertida teoría de que una constante de la naturaleza realmente no es una constante.

Los investigadores han estudiado una estrella enana blanca, en la que la gravedad es más de 30.000 veces mayor que en la Tierra, para probar la controvertida teoría de que una constante de la naturaleza - la intensidad de la fuerza electromagnética, conocida como alfa - no es una constante. Crédito de la imagen: University of New South Wales
Los investigadores han estudiado una estrella enana blanca, en la que la gravedad es más de 30.000 veces mayor que en la Tierra, para probar la controvertida teoría de que una constante de la naturaleza – la intensidad de la fuerza electromagnética, conocida como alfa – no es una constante. Crédito de la imagen: University of New South Wales



El Dr. Julian Berengut y sus colegas usaron el Telescopio Espacial Hubble para medir la intensidad de la fuerza electromagnética – conocida como alfa – en una estrella enana blanca.
El Dr. Berengut, de la Escuela de UNSW de Física, dijo que las investigaciones anteriores, llevadas a cabo por su equipo sobre la luz proveniente de quásares distantes, sugieren que alfa – conocida como la constante de estructura fina – puede variar a través del universo.
“Esta idea de que las leyes de la física son distintas en diferentes lugares del cosmos es una afirmación de gran repercusión, y se debe respaldar con pruebas sólidas”, añade el investigador.
“Para nuestro estudio se escogió una estrella enana blanca, ya que se ha pronosticado que los campos de energías exóticas escalares podrían alterar significativamente a alfa en lugares donde la gravedad es muy fuerte”.
“Los campos escalares son formas de energía que a menudo aparecen en las teorías de la física que buscan combinar el modelo estándar de la física de partículas con la teoría general de la relatividad de Einstein”.
Al medir el valor de alfa, cerca de la enana blanca y compararlo con su valor aquí y ahora en el laboratorio, podemos probar indirectamente si existen en realidad estos campos escalares que pueden cambiar a la constante de la naturaleza, alfa.
Las enanas blancas son estrellas muy densas muy cerca del final de su vida. Los investigadores estudiaron la luz absorbida por los iones de níquel y de hierro en la atmósfera de una enana blanca llamada G191-B2B. Los iones se mantienen por encima de la superficie debido a la fuerte radiación de la estrella, a pesar de la atracción de su campo gravitatorio extremadamente fuerte.
“El espectro de absorción nos permite determinar el valor de alfa con alta precisión. Encontramos que la diferencia entre el valor de alfa en el fuerte campo gravitatorio de la enana blanca y su valor en la Tierra debe ser menor que una parte en diez mil”, dice el Dr. Berengut.
“Esto significa que los campos escalares presentes en la atmósfera de la estrella sólo deben afectar ligeramente la fuerza electromagnética”. El Dr Berengut añade que se necesitan mediciones más precisas de los iones de hierro y níquel en la tierra para complementar los datos astronómicos de alta precisión.
“Así podremos medir cualquier cambio de alfa en una parte por millón. Eso ayudaría a determinar si alfa es una verdadera constante de la naturaleza”.
La investigación se publicará en Physical Review Letters.
Fuente: University of New South Wales

Voyager 1 explora los límites de nuestra ‘burbuja solar’

Los datos de la Voyager 1, ahora a más de 18 mil millones de kilómetros del Sol, sugieren que la nave está más cerca de convertirse en el primer objeto hecho por el hombre que alcanzará el espacio interestelar.

Esta concepción artística muestra a las dos naves espaciales Voyager de la NASA, durante la exploración de una región turbulenta del espacio, conocida como heliosfera, que es la capa exterior de la burbuja de partículas cargadas alrededor del Sol. Crédito de la imagen: NASA / JPL-Caltech
Esta concepción artística muestra a las dos naves espaciales Voyager de la NASA, durante la exploración de una región turbulenta del espacio, conocida como heliosfera, que es la capa exterior de la burbuja de partículas cargadas alrededor del Sol. Crédito de la imagen: NASA / JPL-Caltech


La investigación, que utiliza datos de la Voyager 1, y se ha publicado en la revista Science ofrece nuevos detalles sobre la última región que la nave cruzará antes de dejar la heliosfera (la burbuja alrededor del Sol), y entrar en el espacio interestelar. Tres artículos describen cómo la entrada de la Voyager 1 en una región llamada ‘carretera magnética’ ha dado lugar a observaciones simultáneas de la tasa más alta, hasta ahora medida, de las partículas cargadas de fuera de la heliosfera exterior, y la desaparición de las partículas cargadas desde el interior de la heliosfera.
Los científicos han visto dos de los tres signos que esperan ver cuando la Voyager se aventure en el espacio intelestelar: partículas cargadas que desaparecen a medida que se alejan a lo largo del campo magnético solar, y rayos cósmicos del exterior que se acercan. Los científicos aún no han visto la tercera señal, que consiste en un cambio brusco de la dirección del campo magnético, lo que indicaría la presencia del campo magnético interestelar.
Los científicos no saben exactamente qué tan lejos debe llegar la Voyager 1 para alcanzar el espacio interestelar. Estiman que podría tomar varios meses, o incluso años. La heliosfera se extiende por lo menos 13 mil millones kilometros más allá de todos los planetas de nuestro sistema solar. Está dominada por el campo magnético del sol y un viento ionizado que se expande hacia el exterior desde el Sol. Fuera de la heliosfera, el espacio interestelar está lleno de materia de otras estrellas, y el campo magnético presente en la zona próxima de la Vía Láctea.
La Voyager 1 y su nave gemela, la Voyager 2, partieron en 1977. Tras recorrer Júpiter, Saturno, Urano y Neptuno, en 1990 se embarcaron en su misión interestelar. La medición del tamaño de la heliosfera es parte de la misión de las naves Voyager.
“Vimos la desaparición rápida y dramática de las partículas de origen solar. Disminuyeron más de 1.000 veces en intensidad, como si hubiera una enorme bomba de vacío en la rampa de entrada a la autopista magnética”, dijo Stamatios Krimigis, investigador principal del instrumento de partículas del Laboratorio de Física Aplicada de la Universidad Johns Hopkins. “Nunca antes habíamos visto una disminución así, excepto cuando la Voyager 1 dejó atrás la gigantesca magnetosfera de Júpiter, hace unos 34 años”.
Esta concepción artística muestra a la nave espacial Voyager 1 de la NASA cuando explora una región llamada la "región de agotamiento" o "autopista magnética" en los límites exteriores de nuestra heliosfera. Crédito de la imagen: NASA / JPL-Caltech
Esta concepción artística muestra a la nave espacial Voyager 1 de la NASA cuando explora una región llamada la “región de agotamiento” o “autopista magnética” en los límites exteriores de nuestra heliosfera. Crédito de la imagen: NASA / JPL-Caltech

Otro comportamiento observado por la Voyager 1 también indica que la nave espacial todavía está en una región de transición al medio interestelar. Al cruzar a la nueva región, las partículas cargadas procedentes de la heliosfera que disminuyeron más rápidamente fueron aquellas paralelas a las líneas del campo magnético solar. Las partículas en movimiento perpendicular al campo magnético no disminuyeron tan rápidamente. Sin embargo, los rayos cósmicos que se desplazan a lo largo de las líneas del campo en la región de la carretera magnética fueron algo más numerosos que las que se desplazan de forma perpendicular al campo. En el espacio interestelar, no se espera que la dirección de las partículas cargadas en movimiento sea de importancia.
En el lapso de aproximadamente 24 horas, el campo magnético proveniente del Sol se comenzó a acumular, y los científicos lograron cuantificar que el campo magnético apenas cambió de dirección – en no más de 2 grados.
“Un día hizo una gran diferencia en esta región al doblarse repentinamente el campo magnético y volverse extraordinariamente uniforme”, dijo Leonard Burlaga, autor principal de uno de los artículos. “Pero desde entonces no ha habido ningún cambio significativo en la dirección del campo magnético, seguimos observando las líneas del campo que se originan en el Sol”, concluyó.
Fuente: NASA/JPL

Instrumento revolucionario ofrece un Universo más nítido

Un nuevo instrumento instalado en el Observatorio Gemini en Chile, por medio de tecnología óptica adaptativa, elimina las distorsiones atmosféricas como nunca antes se había logrado. La publicación de siete imágenes ultranítidas de gran campo, de las primeras observaciones científicas del instrumento, demuestran su gran potencial para el descubrimiento.

Imágenes producidas por el sistema de óptica adaptativa del Observatorio Gemini (GeMS). Diseño de la imagen de Eve Furchgott, Blue Heron Multimedia. Crédito: Observatorio Gemini/AURA
Imágenes producidas por el sistema de óptica adaptativa del Observatorio Gemini (GeMS). Diseño de la imagen de Eve Furchgott, Blue Heron Multimedia. Crédito: Observatorio Gemini/AURA



Recientemente los astrónomos vieron las primeras imágenes producidas por el revolucionario sistema de óptica adaptativa del Observatorio Gemini, llamado GeMS. “Los datos son realmente espectaculares”, dice Robert Blum, Director Adjunto del Observatorio Nacional de Astronomía Óptica. Blum añade que lo que se ha visto hasta ahora indica una capacidad increíble, muy superior cualquier cosa en el espacio o en tierra.
Tras más de una década en desarrollo, el sistema ahora se encuentra en uso regular en el telescopio Gemini Sur en Chile, y está brindando imágenes ultranítidas a los científicos de todo el mundo. Las imágenes proporcionan un nivel de detalle sin precedentes para sus estudios sobre el universo. Las imágenes, hechas públicas el día de ayer, muestran el poder del sistema GeMS para el descubrimiento científico. El sistema utiliza una combinación de varios rayos láser y espejos deformables para eliminar las distorsiones atmosféricas de las imágenes tomadas desde tierra.
A diferencia de los sistemas anteriores, GeMS utiliza una técnica denominada “óptica adaptativa multi-conjugada”, que no sólo captura más del firmamento en una sola toma (entre 10 a 20 veces más en cada “foto”), sino que también forma imágenes nítidas de manera uniforme en todo el campo, de arriba a abajo y de borde a borde. Esto hace que el espejo de 8 metros de Gemini sea de 10 a 20 veces más eficientemente, lo que permite que los astrónomos exploren el universo a más profundidad y con una gama más amplia de filtros, que revelarán detalles estructurales nunca antes vistos.
Las nuevas imágenes, que se muestran como un collage en la imagen superior, están disponibles como descargas de alta resolución en www.gemini.edu/12020.
Fuente: Gemini Observatory

Destellos de radio de origen cósmico señalan un lejano cataclismo

Unos misteriosos destellos de ondas de radio de origen cósmico, procedentes de miles de millones de años luz de distancia, han hecho que sus descubridores especulen sobre sus orígenes.

Impresión artística de los detellos de radio de origen cósmico, y del ratio telescopio CSIRO Parkes de Australia. Crédito: Swinburne Astronomy Productions
Impresión artística de los detellos de radio de origen cósmico, y del ratio telescopio CSIRO Parkes de Australia. Crédito: Swinburne Astronomy Productions


El equipo internacional de científicos ha descartado que las cuatro rápidas ráfagas de ondas de radio tengan un origen terrestre, y dice que su brillo y distancia sugieren que provienen de distancias cosmológicas, cuando el Universo tenía sólo la mitad de su edad actual.
La energía de los destellos indica que se originan en un evento astrofísico extremo que implica objetos relativistas, tales como estrellas de neutrones o agujeros negros.
El líder del estudio, Dan Thornton, estudiante de doctorado de la Universidad de Manchester dijo que los hallazgos señalan eventos extremos que implican grandes cantidades de masa o de energía como la fuente de las ráfagas de radio.
Sorprendentemente, los resultados – detectados en una fracción minúscula del firmamento – también sugieren que se debe producir una de estas señales de origen cósmico cada 10 segundos. Tras producirse las primeras detecciones, los científicos buscaron su confirmación durante cuatro años, cosa que han logrado al detectar cuatro destellos más, lo que ha eliminando cualquier duda de que son reales.
El coautor, Prof. Matthew Bailes, de la Universidad Swinburne de Tecnología de Melbourne, cree que los destellos pueden provenir de estrellas magnéticas de neutrones, conocidas como ‘magnetares’.
Los investigadores dicen que sus resultados también proporcionan una forma de descubrir las propiedades del espacio entre la Tierra y el punto de origen de las ondas de radio.
El Dr. Ben Stappers, otro de los autores, investigador de la Escuela de Física y Astronomía de Manchester, dice que aún no se sabe con certeza de qué está constituido el espacio entre las galaxias, por lo que podrán usar los destellos como una especie de sondas que ayudarán a tener una mejor compresión de la materia perdida del universo, y añade que han empezado a usar telescopios en busca de los destellos de origen cósmico en tiempo real.
Los hallazgos se publica en Science.
Fuente: The University of Manchester