Recent Post

Astroparticulas

La Física de Astropartículas o Astrofísica de Partículas es un campo relativamente reciente de investigación que se dedica al estudio de las partículas elementales de origen astrofísico.

Fisica de particulas

La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos.

Cosmologia

Estudiar y determinar la naturaleza, energía y lugar de origen de los rayos cósmicos como vía para comprender mejor el origen del Universo.

Noticias

Noticias sobre Fisica de Particulas, Astrofisica y Fisica Nuclear.

Videos

Videos sobre Fisica de Particulas, Astrofisica y Fisica Nuclear.

domingo, 31 de julio de 2011

El magnetismo oculto del universo

El magnetismo oculto del universo
Investigadores del Departamento de Física Teórica I de la Universidad Complutense de Madrid (UCM) han encontrado una posible explicación sencilla y simultánea de la expansión acelerada del universo y de la presencia de campos magnéticos intergalácticos.

En la naturaleza se conocen cuatro interacciones fundamentales que nos permiten explicar la mayoría de los fenómenos físicos observados: la interacción fuerte, la interacción débil, el electromagnetismo y la gravedad. Las dos primeras son de muy corto alcance por lo que, aunque resultan imprescindibles para comprender la física nuclear y de las partículas elementales, son prácticamente irrelevantes a partir de escalas atómicas o moleculares, razón por la que fueron las últimas en ser descubiertas.

A estas escalas, la fuerza dominante es el electromagnetismo, que permite entender las interacciones entre los átomos y las moléculas. El motivo de que esto sea así es que, al contrario de lo que ocurre con las interacciones fuerte y débil, su acción es de largo alcance. Cuando se consideran escalas aún mayores, las cargas positivas y negativas tienden a compensarse haciendo que los cuerpos sean eléctricamente neutros, de modo que su interacción electromagnética cesa.

De este modo, aunque la gravedad es la más débil de todas las interacciones conocidas, debido a que también se trata de una fuerza de largo alcance y a que no hay fuentes gravitatorias negativas que puedan compensar la atracción de las masas, es la que gobierna la dinámica de las galaxias, los cúmulos y, en última instancia, el universo.

Que el electromagnetismo y la gravedad sean interacciones de largo alcance implica que su acción se deja sentir por muy lejos que nos situemos de la fuente. Sin embargo, la validez tanto de la relatividad general (nuestra teoría de la gravitación) como del electromagnetismo únicamente se ha podido comprobar a escala del sistema solar, que resulta ridícula cuando se compara con el abrumador tamaño del universo.

Si bien es cierto que podríamos suponer que el comportamiento de estas dos interacciones será el mismo sin importar las distancias involucradas, en realidad no hay ninguna evidencia experimental de que esto sea así y, de hecho, a escalas galácticas y mayores hay fenómenos que no han podido ser explicados de forma satisfactoria dentro del marco de estas dos teorías.

Teorías con zonas oscuras

Por un lado, la relatividad general es incapaz de explicar la dinámica galáctica sin incluir la llamada materia oscura y, a escalas mucho mayores, se requiere la presencia de un tipo de energía exótica, llamada energía oscura, para dar cuenta de la actual fase de expansión acelerada del universo.

En cuanto a la materia oscura, la mayor parte de la comunidad acepta la existencia de algún tipo de partícula que aún no se ha detectado, pero que se espera observar con los detectores directos e indirectos que están funcionando actualmente o que comenzarán a operar en los próximos años.

Sin embargo, en relación a la otra componente oscura, todavía no se ha alcanzado un consenso sobre la verdadera causa que está generando la expansión acelerada del universo, si bien se admite una explicación que, por su simplicidad, resulta ser la más favorecida por el principio de la navaja de Occam: la constante cosmológica.

El problema es que, aunque es capaz de explicar la mayor parte de las observaciones cosmológicas con gran precisión, el valor de esta constante es tan extremadamente pequeño que, desde un punto de vista puramente teórico, resulta poco natural, y esto inquieta a la cosmología teórica. Esta es la razón por la que se exploran alternativas que nos permitan dilucidar la verdadera naturaleza de esta constante.

Por otro lado, es bien conocido que las galaxias y los cúmulos de galaxias contienen campos magnéticos relativamente intensos y que se extienden de forma coherente a lo largo de toda su estructura. Además, en los últimos años se ha comenzado a observar que dichos campos se encuentran también fuera de las propias galaxias y podrían permear la totalidad del universo visible.

Aunque se conocen mecanismos que podrían amplificar dichos campos a partir de semillas primordiales (diminutos campos magnéticos creados en los primeros instantes del universo que, por el enfriamiento y debido a un efecto dínamo, crecieron hasta los valores que se observan actualmente), el origen de estos campos primigenios no encuentra una explicación satisfactoria dentro de la teoría electromagnética de Maxwell.

La poca naturalidad de la constante cosmológica

Recientemente, investigadores del Departamento de Física Teórica I de la Facultad de Ciencias Físicas de la UCM han mostrado que ambos problemas (la expansión acelerada del universo y la existencia de campos magnéticos cosmológicos) podrían encontrar una solución simple cuando se tienen en cuenta los efectos de la expansión del universo sobre la interacción electromagnética.

En efecto, se sabe desde hace más de 50 años que el campo electromagnético contiene componentes que no se manifiestan físicamente en situaciones ordinarias y que, de hecho, se ignoran en los tratamientos habituales. Sin embargo, lo que precisamente se ha encontrado en estos trabajos es que dichas componentes pueden tener efectos físicos cuando se consideran en un contexto cosmológico.

En el universo primitivo, se cree que tuvo lugar una fase de expansión acelerada, similar a la que se está dando actualmente, denominada inflación. Durante este período inflacionario no se pueden producir las componentes físicas usuales del campo electromagnético, pero sí se generan las componentes que son normalmente ignoradas. Además, al finalizar la época inflacionaria, estas componentes sobreviven a grandes escalas en forma de una constante cosmológica efectiva cuyo valor está determinado por la temperatura del universo al finalizar la inflación.

Lo sorprendente de este mecanismo es que, si la temperatura del universo al final de la inflación corresponde con la de la escala electrodébil, el valor de la constante cosmológica coincide con el que se requiere para explicar la presente fase de expansión acelerada. Esto resolvería el problema de naturalidad de la constante cosmológica, obteniéndose su valor a partir de la física a una escala que es precisamente la que se pretende estudiar en el Gran Colisionador de Hadrones LHC en Ginebra.

Por otro lado, las componentes generadas durante inflación también producen campos magnéticos que no sólo podrían actuar como las semillas primigenias de los campos magnéticos galácticos, sino que permitirían explicar su presencia fuera de las galaxias.

Como tantas veces ocurre en Física, dos fenómenos que aparentemente no guardan relación alguna, como son la presencia de campos magnéticos cosmológicos y la aceleración cósmica, podrían encontrar una explicación sencilla y simultánea si se contemplan desde una perspectiva diferente. Sin duda el tiempo determinará si es esta la correcta.

Antonio López Maroto | Jose Beltrán Jiménez // UCM | SINC

De la partícula de Higgs al Big Bang

De la partícula de Higgs al Big Bang
Las bases que pusieron los clásicos Leucipo y Demócrito han culminado en un ingenio llamado LHC. Pero la Física, según Antonio Fernández-Rañada, catedrático de la Universidad Complutense de Madrid, aún tiene importantes y numerosos desafíos.

Predecir es arriesgado. Ernest Rutherford descubrió el núcleo de los átomos y fue el mejor experimentador en Física del siglo XX, pero toda su sabiduría no le libró de equivocarse al decir en 1933 que la idea de sacar energía de los átomos es una pamplina. Las asociaciones de sabios no lo hicieron mejor. En 1937, la Academia Nacional de Ciencias de Washington llevó a cabo un estudio para averiguar cuáles serían las tecnologías más rompedoras de la segunda mitad del sigo XX. Curiosamente, no fueron capaces de predecir ni la importancia de los antibióticos (a pesar de que Fleming había descubierto la penicilina años antes) ni la de los ordenadores, los láseres, la robótica o la energía nuclear.

A pesar de todo no es un ejercicio estéril el intentar prever lo que nos pueda llegar. Empecemos por la física fundamental. La carrera que iniciaron Leucipo y Demócrito al proponer que las cosas están hechas de átomos continúa hoy en el Gran Colisionador de Hadrones (el famoso LHC) del CERN en Ginebra. Seguro que esos dos griegos se sentirían fascinados si pudieran conocer el actual "Modelo estándar" de las partículas elementales, los verdaderos átomos que ellos soñaron. Ese modelo es admirable pero incompleto; le falta algo y la inclusión de esas partículas no es suficientemente armónica. Las esperanzas se ponen hoy en una esquiva partícula que ya tiene nombre sin haber sido vista nunca, Higgs, propuesta por el inglés así apellidado.

Pasando de lo pequeño a lo grande, la cosmología acumula hoy grandes éxitos junto a incertidumbres notorias. No sabemos todavía cuál es el tiempo más adecuado para hablar del universo. Por eso hay que tomar con precaución las afirmaciones sobre el tiempo transcurrido desde el Big Bang. Se habla mucho de la materia oscura pero no sabemos qué es tal cosa y, si me apuran, ni siquiera podemos estar seguros al cien por cien de que exista. Pero lo más importante de todo, según creo, es lo que algunos llaman el misterio de la constante cosmológica. Se trata de un término que Einstein añadió en 1916 a las ecuaciones de su Relatividad General, la mejor teoría que tenemos de la gravedad, por suponer que el universo es estático, a causa de un prejuicio filosófico. Pero en la década de 1920 se comprendió que en realidad está en expansión, por lo que Einstein rechazó su idea "como el mayor error de mi vida”. Sin embargo, la constante cosmológica renació hace unas décadas, especialmente desde 1998, cuando se comprendió que la expansión del universo se está acelerando. Todavía no entendemos bien su significado. La teoría del Big Bang ofrece hoy la visión global más segura del cosmos, pero se enfrenta a un obstáculo difícil: combinar las dos teorías cuántica y gravitacional en una sola, que se llamaría "gravedad cuántica”. Hasta que no se consiga hacer eso no podremos entender bien ni el universo recién nacido ni los agujeros negros.

En cuanto a las aplicaciones, cabe hablar del ordenador cuántico, uno de cuyos líderes mundiales es Juan Ignacio Cirac. Habrá sin duda nuevas ideas en varias ramas en que la Física se combina con otras ciencias: la biofísica, la automática y la nanociencia, que está ya sirviendo de plataforma común, en la escala de las millonésimas de milímetro, a la física, la química, la biología y la ingeniería cognitiva. La ciencia del siglo XXI tendrá mucho de multidisciplinar.

Antonio FERNÁNDEZ-RAÑADA | ELCULTURAL.es

sábado, 30 de julio de 2011

El LHC en 2012 podrá descartar o confirmar la existencia del bosón de Higgs

El LHC en 2012 podrá descartar o confirmar la existencia del bosón de Higgs
El Gran Colisionador de Hadrones (LHC, en sus siglas en inglés) dispondrá de suficientes datos a finales de 2012 como para descartar o confirmar la existencia del bosón de Higgs, partícula masiva e hipotética predicha por el modelo estándar de la física de partículas, cuya existencia explicaría el origen de la masa de otras partículas elementales.

Los principales experimentos del Gran Colisionador de Hadrones(LHC) han presentado nuevos datos que estrechan la búsqueda del bosón de Higgs, la última pieza que falta para completar el modelo estándar. Esta teoría, que engloba la relatividad especial y la mecánica cuántica, describe las partículas fundamentales y sus interacciones.

Los experimentos ATLAS y CMS no encuentran evidencias significativas de la presencia de esta partícula en un amplio rango de masas. Estos resultados distan de ser definitivos, por lo que el acelerador de partículas del CERN (Organización Europea para la Investigación Nuclear), deberá recopilar más datos para poder probar o descartar definitivamente la existencia de esta elusiva partícula.

Los experimentos ATLAS y CMS han presentado en Grenoble sus primeros resultados en la búsqueda del bosón de Higgs. Hasta el momento no han encontrado ninguna señal significativa de la presencia de la partícula Higgs en el rango de masas entre los 120 y los 600 GeV (gigaelectronvoltios). El gigaelectronvoltio es una unidad de energía, pero en física de partículas la masa y la energía pueden ser intercambiadas por la idea de equivalencia demostrada por Einstein en su famosa ecuación (E = MC2).

Así, la energía de las partículas que giran en el LHC se transforma en las colisiones en nuevas partículas muy masivas que inmediatamente "decaen", se transforman en otras.

De esta manera los físicos reconstruyen los "eventos" o "sucesos" ocurridos en el interior de los experimentos a partir de las partículas resultantes de las colisiones. La existencia del bosón de Higgs se tendrá que observar mediante las partículas resultantes de las colisiones donde se produzca.

Esta partícula es, según la teoría que define las partículas elementales y sus interacciones, el modelo estándar, la que otorgaría masa al resto mediante el llamado "campo de Higgs". Su existencia fue propuesta por el físico Peter Higgs en la década de los sesenta.

Los resultados de ATLAS permiten descartar, con un nivel de confianza del 95% la existencia de un bosón de Higgs con masas entre 155-190 GeV y 295-450 GeV. Por su parte, CMS descarta con el mismo nivel de confianza su presencia en los rangos de masas de 149-206 GeV y 300- 440 GeV. Sin embargo, en la región de masa entre 120 y 140 GeV, y alrededor de los 250 GeV, ATLAS observa un "moderado exceso de sucesos", mientras que CMS observa otro "exceso moderado" de eventos por debajo de los 145 GeV.

Según datos obtenidos en otros aceleradores como el Tevatron (EEUU), el rango de masas más probable del bosón de Higgs estaría entre los 114 y 137 GeV, más de 100 veces la masa del protón.

No obstante, los físicos interpretan estas señales con gran cautela a la espera de más datos y estudios adicionales. Se esperan nuevos resultados para la conferencia internacional Lepton-Photon, que se celebrará en India a finales de agosto.

Durante 2011 y 2012 el LHC acumulará diez veces más datos, lo que permitirá a los experimentos explorar de forma mucho más precisa la actual frontera de energía en la búsqueda del bosón de Higgs.

Pero el LHC no se limita a la búsqueda del bosón de Higgs. El mayor y más potente acelerador de partículas del mundo trata de dar respuestas a algunos de los interrogantes más importantes de la física actual, entre los que se encuentra el de la antimateria.

En teoría, durante la creación del Universo, en el Big Bang, se tuvieron que crear las mismas cantidades de materia como de antimateria, una especie de "reflejo" de la materia igual en todo pero con una carga eléctrica distinta, pero por razones que se desconocen, el Universo está formado por materia y la antimateria parece haber desaparecido (aunque se crea habitualmente en laboratorio y se emplea en los dispositivos PET).

Uno de los experimentos del LHC, LHCb, ha sido especialmente diseñado para indagar en este problema mediante la producción del quark b, una de las partículas elementales más masivas que se conocen. Los físicos sospechan que deben existir ligeras asimetrías entre materia-antimateria que explicarían el predominio de la materia. LHCb ha observado diferencias en las tasas de producción de quarks b y su antipartícula, el antiquark b.

EUROPA PRESS

Enjaulan a una molécula de agua en un fullereno

Enjaulan a una molécula de agua en un fullereno
Abriendo un orificio en el "balón de fútbol" ​​fullereno C60 se puede encapsular sin enlaces a una molécula de H2O y sintetizar H2O@C60.

Hasta ahora encontrar una molécula de agua sola sin puentes de hidrógeno que la conecten a metales u otras moléculas orgánicas era una rareza, pero dos investigadores de la Universidad de Kioto (Japón) presentan esta semana en Science un proceso químico para atraparla dentro de una jaula minúscula de 60 átomos de carbono: una molécula con aspecto de balón de futbol denominada fullereno C60. Con una serie de reacciones químicas se puede abrir un agujero en la esfera, meter el H20 elevando la temperatura y la presión para, finalmente, crear la molécula resultante H20@C60. El estudio abre nuevas posibilidades para estudiar el agua.

SINC

viernes, 29 de julio de 2011

La primera prueba de la posible existencia de grafeno en el espacio

La primera prueba de la posible existencia de grafeno en el espacio. IAC
Los astrofísicos detectan lo que podría ser C24, una molécula plana bidimensional del grosor de un átomo de carbono, “un trocito de grafeno”. Detectan también en diez nebulosas planetarias de dos galaxias cercanas fulerenos C60 y C70. Se trata de la primera detección extragaláctica del fulereno C70 que, compuesto de pentágonos y hexágonos, tiene forma de diminuto balón de rugby. La presencia de estas moléculas complejas alrededor de estrellas moribundas indica que los procesos básicos para la vida podrían originarse “en cualquier rincón del universo”.

En el año 2004, los científicos premiados con el Nobel de Física 2010, Andre Geim y Konstantin Novoselov, sintetizaron el grafeno en el laboratorio. Apenas siete años después, este material de extraordinaria resistencia, delgadez y elasticidad podría haber sido hallado en el espacio. Un equipo liderado por investigadores del Instituto de Astrofísica de Canarias (IAC) acaba de publicar en The Astrophysical Journal Letters la primera evidencia de la posible existencia de C24, una molécula plana bidimensional de un átomo de grosor, un posible “trocito de grafeno” en el espacio.

Para una confirmación definitiva del hallazgo habría que obtener espectros de laboratorio de C24, lo que resulta casi imposible con las técnicas actuales. “Creo que nuestro trabajo animará a los expertos de laboratorio a desarrollar nuevas técnicas que permitan caracterizar ésta y otras moléculas, e incluso otras formas del carbono que podrían estar presentes en el espacio, como los nanotubos, los nanodiamantes, las cebollas de carbono, etc.”, señala el director de la investigación, el astrofísico del IAC Domingo Aníbal García Hernández.

Por su alta conductividad térmica y eléctrica, el grafeno tiene prometedoras aplicaciones tecnológicas, como la fabricación de nuevos materiales y dispositivos electrónicos avanzados (ordenadores más rápidos que los que portan transistores de silicio, pantallas de dispositivos electrónicos, paneles solares...). Al ser transparente, delgado como un cabello, y poder desarrollar a partir de él materiales 200 veces más resistentes que el acero, las expectativas sobre el grafeno como el material del futuro no han dejado de crecer.

En este estudio, los astrofísicos del IAC detectaron además grandes cantidades de fulerenos C60 y C70 en diez nebulosas planetarias [restos de estrellas como el Sol hacia el final de sus vidas] de dos galaxias cercanas a la Vía Láctea, las Nubes de Magallanes. El equipo internacional, que trabajó con el telescopio Spitzer de la NASA, ha logrado la primera detección extragaláctica del fulereno C70.

Los fulerenos están compuestos por átomos de carbono ordenados en estructuras esféricas tridimensionales. Sus patrones alternativos de hexágonos y pentágonos coinciden con el diseño de una típica pelota de fútbol blanca y negra, en el caso de los fulerenos C60, y de un balón de rugby, en el caso de los fulerenos C70. Recibieron su nombre porque recuerdan a las cúpulas geodésicas del arquitecto Buckminster Fuller, que tienen círculos entrelazados en la superficie de una esfera parcial.

García Hernández explica qué implicaciones tiene la detección de estas moléculas: “La presencia de moléculas tan complejas como los grafenos y los fulerenos en el espacio, alrededor de estrellas como nuestro Sol cuando son viejas, indica que los procesos físicos básicos para originar vida podrían ser más comunes de lo que creíamos, lo que sugiere que podría crearse vida en cualquier rincón del universo”.

Los fulerenos podrían actuar como jaulas para otras moléculas y átomos, de modo que podrían haber llevado sustancias hasta la Tierra que habrían impulsado el comienzo de la vida. Las evidencias de esta teoría proceden del hecho de que estas moléculas han sido encontradas en meteoritos portando gases extraterrestres.

Respuestas sobre la formación de fulerenos y grafenos

El equipo de astrofísicos aporta con este trabajo la explicación más probable sobre cómo se generan los fulerenos y grafenos. “Estas moléculas complejas se formarían a partir de la destrucción por choques de los granos de carbono amorfo hidrogenados (HACs), que son muy abundantes en las envolturas de estas estrellas agonizantes”, dice el astrofísico del IAC. En la observación que se había hecho de los fulerenos hasta la realización de este estudio, se creía que estas moléculas emitían luz excitadas por los fotones procedentes de la estrella central de la nebulosa planetaria. Con este nuevo trabajo, los científicos han descubierto que esta luz procede de la colisión de los constituyentes mas externos de los HACs, que podrían estar deshidrogenados como paso previo para la formación en la superficie de los granos de moléculas complejas de carbono, como los grafenos y los diferentes tipos de fulerenos observados.

No es la primera vez que este equipo pone en entredicho las teorías aceptadas en la actualidad acerca de este tipo de moléculas. Con sus últimos trabajos han demostrado que, en contra de lo que se creía, fulerenos y grafenos se forman en entornos ricos en hidrógeno, alrededor de estrellas moribundas con un tamaño similar al Sol.

Instituto de Astrofísica de Canarias (IAC)

Quantum: Einstein, Bohr y el gran debate sobre la naturaleza de la realidad, de Manjit Kumar

Quantum, Manjit Kumar
En “Quántum”, Manjit Kumar nos ofrece una amplia perspectiva histórica sobre la ciencia cuántica, y nos cuenta lo que ocurrió en el Quinto Congreso Solvay, en octubre de 1927 y entre las personalidades que allí concurrieron. Es una historia de ciencia, pero también filosófica, de rivalidades, de personas.

El libro es una obra de divulgación científica tanto como un texto de historia y una biografía. Es así como consigue atrapar al lector, quien en sus páginas aprenderá sobre física cuántica y más aún sobre los individuos que desarrollaron la teoría, en un entorno de trabajo de principios del siglo pasado.

El autor está graduado en filosofía y física, dos de los ángulos principales que explora el libro y cuyo subtítulo ilustra claramente. Las personalidades de Einstein, Bohr y muchos más completan el panorama de esta historia apasionante.

No es un libro de texto científico ni tampoco uno de popularización de la ciencia, si bien hay mucha información e ilumina aspectos de la mecánica cuántica. Está organizado como si fuese una biografía o un libro histórico. Cada personaje es descripto en detalle pues, como se observa, el conservadurismo de Plank realza su descubrimiento, la inteligencia y mal humor de Pauli fueron instrumentales, la tenacidad y timidez de Bohr indispensables, la imaginación y libertad de Einstein mantuvo la polémica viva.

A ellos se le suman Heisenberg, Shrodingen, Dirac, Born, Bohm, Compton, De Broglie, Sommerfeld, Lorentz, Boltzmann, Rutherford, Uhlenbeck, Goudsmith, Bell, y otros. Todos ellos están retratados perfectamente y el lector siente que está presenciando los hechos de manera íntima.

Como compensación hay un sección de notas muy completa (37 páginas de citas), un glosario de 14 páginas, un timeline de 12 páginas, una bibliografía de 18 páginas y fotografías de todos los personajes principales.

Esta es una historia de extraordinarios descubrimientos de parte de mentes de inteligencia vertiginosa. De la creación de una teoría a regañadientes, contra el sentido común de todos los involucrados, de la resistencia hasta el final de algunos y de la espectacular intransigencia de una realidad extraña, tan difícil de comprender que se le niega el aspecto de realidad.

Editorial Kairós. 2011. Rústica, 575 páginas. ISBN: 978-84-7245-901-4

jueves, 28 de julio de 2011

Premio a García-Bellido por su trabajo en física de partículas

Premio a García-Bellido en física de partículas
El español Arán García-Bellido, licenciado en Física por la Universidad Complutense de Madrid y actualmente profesor en la Universidad de Rochester (Nueva York) y colaborador en los experimentos DZero (Tevatron, Fermilab) y CMS (LHC,CERN), ha recibido uno de los premios que concede anualmente el Departamento de Estado de Energía del Gobierno de los Estados Unidos (DOE), según ha informado este jueves el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN) en un comunicado.

El premio, uno de los 60 que se han concedido en diferentes áreas científicas, reconoce la propuesta del investigador español de profundizar en el análisis de la producción del quark top, la más masiva de la partículas elementales descubierta en Fermilab en 1995, para buscar "nueva física" más allá del Modelo Estándar, según ha informado este jueves el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN) en un comunicado.

García-Bellido es doctor en Física de Partículas por la Royal Holloway de la Universidad de Londres con una tesis sobre supersimetría a partir de datos del experimento Aleph en el acelerador LEP del Centro Europeo para la Investigación Nuclear (CERN).

Tras una estancia postdoctoral en la Universidad de Washington (Seattle) con base en Fermilab trabajando en el experimento DZero del Tevatron entre 2002-2008, entró en la Universidad de Rochester como profesor asistente, trabajando tanto en DZero y CMS.

El investigador español se ha especializado en el estudio del 'quark top', la más masiva de la partículas elementales que componen la materia que se conoce. García-Bellido participó en el descubrimiento de un nuevo modo de producción de este tipo de partícula junto con un quark b, como estaba predicho por el Modelo Estándar. Además, fue coordinador del grupo que estudió el 'quark top' en el experimento DZero de Fermilab entre 2009 y 2010.

El premio está dirigido a apoyar la consolidación de la trayectoria investigadora de profesores de universidad o científicos de un laboratorio nacional en los Estados Unidos que hayan obtenido el doctorado recientemente. El premio se da en todas las áreas del DOE (Matemáticas, Ingeniería, Informática, Ecología, Bioingeniería, Física Nuclear, Física de Fusión, Astrofísica, Física Teórica, etc.).

Este año se presentaron 1.100 solicitudes y se han concedido 67 premios. El comité que los otorga está formado por expertos de cada campo, y se dota con 750.000 dólares durante cinco años para fomentar la investigación propuesta.

Los objetivos de la investigación propuesta por García-Bellido son medir con precisión el modo en que los quarks top interaccionan con los quarks b (otro tipo de partícula elemental, el segundo quark más pesado tras el top) en el Modelo Estándar, así como buscar nuevas partículas pesadas que se desintegran en quarks top y b.

La idea consiste en seguir explotando los datos del Tevatron (que aunque se cerrará en septiembre próximo acumula gran cantidad de datos tras 20 años de funcionamiento) haciendo análisis que sean más difíciles de llevar a cabo en el LHC, y al mismo tiempo usar la gran cantidad de datos a alta energía del LHC para buscar nuevos fenómenos.

Según García-Bellido, "estos estados finales con quarks top y b ofrecen posibilidades interesantes para buscar nueva física más allá del Modelo Estándar, porque los quarks top se acoplan naturalmente con partículas pesadas o pueden exhibir anomalías en sus acoplos habituales".

Además, otra aplicación de este proyecto es participar en la investigación y desarrollo de nuevos aparatos electrónicos de silicio para leer las señales ópticas en el calorímetro hadrónico de CMS en el LHC, que serán instalados en el 2017.

España es el quinto contribuyente al presupuesto del CERN, por detrás de Alemania, Reino Unido, Francia e Italia. La participación científica española en el LHC es promovida de forma coordinada por el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010 formado por 26 grupos y más de 400 investigadores.

EUROPA PRESS

Físicos confirman que viajar en el tiempo es imposible

Físicos confirman que viajar en el tiempo es imposible
Un equipo de físicos japoneses acaba de echar por tierra la fabulosa posibilidad, hasta ahora solo parte de las tramas de las historias de ciencia ficción, de viajar en el tiempo.

Experimentos realizados en los últimos años sugerían la eventualidad de que los fotones, las unidades de luz, tomadas de forma individual, podían superar la misma velocidad de la luz en su conjunto, pero los investigadores han confirmado que este salto en las reglas del Universo no es posible. Y si esto no es posible, por mucho que duela a los más entusiastas, tampoco lo será viajar al pasado o al futuro.

Durante la investigación, publicada en Physical Review, los científicos, dirigidos por Shengwang Du, hicieron pasar pares de fotones a través de un vapor de átomos a unas 100 millonésimas de grado sobre el cero absoluto, la temperatura más baja de Universo, según informa la BBC. Y resultó que los fotones individuales cumplían con los límites de la velocidad de la luz en el vacío, lo que significa que siguen el principio de causalidad establecido por la teoría de la relatividad de Einstein, por el que el efecto no puede suceder antes de su causa.

"Einstein afirmaba que la velocidad de la luz imponía la ley del tráfico del Universo: nada puede viajar más rápido que la luz", explican los investigadores de la Universidad de Ciencia y Tecnología de Hong Kong. "El estudio demuestra que un único fotón también obedece esa ley", subraya. Para el profesor Du, el fracaso individual de los fotones "cierra el debate" de la velocidad que pueden adquirir estas partículas. Además, la investigación puede proporcionar nueva información en los estudios sobre transmisión cuántica.

La luz viaja a una velocidad de casi 300.000.000 metros por segundo en el vacío, pero puede variar en diferentes materiales, como el agua (el popular experimento de la pajita 'doblada' en el vaso) o los gases.

madrimasd.org

miércoles, 27 de julio de 2011

Los electrones del grafeno se comportan como las partículas de alta energía del LHC

Un estudio confirma que los electrones del grafeno se comportan como las partículas de alta energía del LHC
Un trabajo con participación del investigador del Consejo Superior de Investigaciones Científicas (CSIC) Francisco Guinea ha caracterizado por primera vez con precisión los efectos de la interacción entre los electrones del grafeno. El estudio, que se publica en el último número de Nature Physics y en el que también han participado los Nobel de Física 2010 Andre Geim y Konstantin Novoselov, vuelve a demostrar que los electrones de este material se comportan de forma similar a las partículas de alta energía que se estudian en el LHC y en otros laboratorios.

El grafeno es un material bidimensional, a caballo entre un metal y un semiconductor, compuesto por una sola capa de átomos de carbono colocados en una red hexagonal. Se caracteriza por tener el espesor mínimo permitido por las leyes de la física y por ciertas deformaciones que dan lugar a campos magnéticos muy elevados. Cuando Geim y Novoselov, de la Universidad de Manchester, consiguieron aislar grafeno en 2004, abrieron también las puertas al conocimiento de estas y otras propiedades únicas, entre las que también se incluyen la gran velocidad que alcanzan los electrones y la alta calidad de los cristales.

“El trabajo resalta el parecido entre el grafeno y las partículas elementales. La medida y explicación de lo que pasa en este material es más simple y directa que en los trabajos de física de altas energías. Además, los efectos que se observan en el grafeno se pueden estudiar en un rango mayor de energías”, ha destacado Guinea, investigador del CSIC en el Instituto de Ciencia de Materiales de Madrid, que lleva años estudiando las propiedades de este material.

Los investigadores han observado que la velocidad de los electrones que viajan en la red hexagonal del grafeno es mayor cuanto menor es su energía, “un efecto muy parecido al que se produce en las partículas elementales relativistas”, aquellas que se mueven a velocidades cercanas a la de la luz y que no tienen masa como, por ejemplo, los fotones. La ecuación matemática que sirve para describir ambos fenómenos es, por tanto, la misma.

“Estos electrones se comportan como si estuviesen en el vacío y tuviesen masa 0, por cómo se difractan a través de la red cristalina. La velocidad es 300 veces menor que la de la luz, de un millón de metros por segundo”, explica Guinea. Según el investigador del CSIC, “la ventaja es que estos efectos se pueden estudiar con más detalle y precisión que en los grandes aceleradores, porque es mucho más fácil hacer experimentos con grafeno”.

El trabajo es un primer paso para obtener muestras “extraordinariamente puras” de grafeno para la futura fabricación de dispositivos electrónicos, como transistores ultrarrápidos o fotodetectores.

CSIC

Observan el nacimiento de rayos gamma

Observan el nacimiento de rayos gamma
La astronomía en rayos gamma estudia los objetos más energéticos del universo y, desde sus comienzos hace apenas medio siglo, ha lidiado con un problema grave: determinar de forma precisa y fidedigna la región de donde procede la radiación que llega a los detectores de rayos gamma que permite a su vez averiguar el mecanismo a través del que se produce. Ahora, un grupo internacional liderado por astrónomos del Instituto de Astrofísica de Andalucía del CSIC ha localizado, por primera vez sin la aplicación de modelos y con un grado de confianza superior al 99,7%, la región de la que surgió un destello en rayos gamma en el blázar AO 0235+164. Esta localización ha permitido determinar el mecanismo que produjo el estallido.

Cuando se habla de blázares, el adjetivo “extremo” es inevitable. Los blázares combinan los rasgos esenciales de la familia de objetos a la que pertenecen (los núcleos de galaxias activas), es decir, la presencia de un agujero negro supermasivo de hasta miles de millones de masas solares rodeado de un disco de gas, con la presencia de jets relativistas, o chorros de partículas perpendiculares al disco que viajan a velocidades cercanas a la de la luz y que desde nuestra posición vemos casi de frente, por lo que su intensidad puede multiplicarse entre centenares y miles de veces.

“Este trabajo es en cierto sentido rompedor, porque estaba ampliamente aceptado que los rayos gamma se producen en una región del jet muy cercana al agujero negro, a menos de tres años luz, y hemos hallado que en este caso el destello se produjo decenas veces más lejos. Además lo localizamos en los chorros relativistas, lo que implica la revisión de los modelos de emisión de altas energías en este tipo de objeto”, destaca Iván Agudo, investigador del Instituto de Astrofísica de Andalucía del CSIC que encabeza el estudio. “Hemos obtenido los resultados exclusivamente mediante el análisis de datos y sin modelos, lo que aporta robustez a las conclusiones”, añade el investigador.

Cronología del destello

Este trabajo ha empleado un método que combina datos en casi todas las longitudes de onda disponibles con instrumentos astronómicos y que permite establecer una cronología. El evento comienza con un aumento de la emisión en radio y microondas de AO 0235+164 que fue detectada con el VLBA (Very Large Baseline Array). Este instrumento, que aporta una resolución inigualable, muestra cómo, junto al núcleo de emisión del chorro, surge una segunda región de emisión, que los astrónomos atribuyen a la inyección repentina de material en el chorro. El aumento en la emisión en radio viene acompañado de estallidos a lo largo de todo el espectro electromagnético, desde ondas milimétricas hasta rayos gamma pasando por el óptico.

El grupo investigador debía comprobar que estos destellos, que aparentemente guardaban relación, estaban, en efecto, interconectados. Y lo confirmaron con un grado de confianza superior al 99,7%. A partir de ahí ataron cabos: los datos del VLBA situaban el pico de emisión en radio en una región a unos cuarenta años luz del agujero negro, de modo que buscaron un mecanismo que pudiera producir el destello en rayos gamma en las proximidades.

Ese mecanismo maneja la existencia de dos “piezas”, una estática (el chorro) y otra en movimiento (correspondiente a la nueva inyección de material), y de una región del chorro que, debido a la interacción con el medio circundante, reconfina el material del chorro, acelera las partículas y produce un aumento de la energía emitida. Cuando la nueva componente atraviesa esa región (denominada onda de recolimación), comienzan a producirse los destellos observados.

El origen de los rayos gamma

El destello de rayos gamma se produce por la interacción entre los fotones en óptico y los electrones del chorro a través del efecto Compton inverso: un fotón colisiona con un electrón y del choque resultan un electrón con menos energía de la inicial y un fotón más energético (rayo gamma). “Existen varias regiones en el núcleo activo de una galaxia donde tenemos fotones en óptico que podrían desencadenar este efecto, pero el tipo de correlación entre las curvas de luz del destello en el óptico y del destello en rayos gamma indica sin lugar a dudas que el origen de los rayos gamma se localiza en el propio chorro. Así que hemos sido capaces de determinar no solo la localización del destello en rayos gamma, sino también el mecanismo que lo desencadena” concluye Agudo.

CSIC

martes, 26 de julio de 2011

La mayor y más distante reserva de agua del Universo

La mayor y más distante reserva de agua del Universo
Dos equipos de científicos liderados por investigadores del Instituto de Tecnología de California han descubierto la mayor y más distante reserva de agua del Universo.

La cantidad de agua encontrada en forma de vapor es al menos de 140 billones de veces la cantidad de agua que podríamos encontrar sumando el agua de todos los océanos de la Tierra, según han informado en nota de prensa.

Esta inmensa cantidad de vapor de agua ha sido encontrada en el quásar APM 08279+5255, situado a 12.000 millones de años luz de la Tierra.

Los quásares son objetos muy lejanos y brillantes que, según los investigadores, son núcelos de galaxias jóvenes. Por lo general suelen envolver agujeros negros supermasivos.

En este caso el quásar estudiado envuelve un agujero negro 20.000 millones de veces más masivo que nuestro Sol, y desprende una energía superior en mil billones de veces a la que genera nuestra estrella, según publica Wired.

El vapor de agua encontrado por los equipos de investigadores se extiende por la zona que rodea al quásar hasta llegar a una distancia de varios cientos de años luz.

Los científicos esperan poder medir la incidencia de los rayos gamma e infrarrojos que emite el quásar en el vapor de agua.

Al estar situado a tanta distancia, los datos que ahora ven los científicos son los que realmente ocurrieron hace 12.000 millones de años, cuando el Universo era más joven ('solo' tenía 1.600 millones de años), lo que es una prueba de la existencia de vapor de agua en los comienzos del Universo.

"El descubrimiento de agua no es en si una sorpresa. Hay vapor de agua en la Vía Láctea, pero la cantidad total es 4.000 veces menor que la encontrada en el quásar" ha afirmado Matt Bradford, astrónomo de la NASA y líder de uno de los dos equipos que han efectuado el hallazgo.

El vapor de agua encontrado podría servir para 'alimentar' al agujero negro hasta que alcanzase seis veces el tamaño actual. Pero también podría servir para la creación de nuevas estrellas, al combinarse con otro tipo de gases que también están presentes en el entorno del quásar, como el monóxido de carbono.

El descubrimiento y medición de esta reserva de agua podría permitir a los investigadores buscar galaxias primitivas y determinar con mayor precisión su composición química.

RTVE.es

La deseada "partícula divina" se hace de rogar

La deseada "partícula divina" se hace de rogar
El Gran Colisionador de Hadrones (LHC) está funcionando "extremadamente bien", pero todavía habrá que esperar hasta finales de 2012 para saber si existe el "bosón de Higgs" o "partícula divina", que explicaría por qué otras partículas elementales tienen masa, es decir, una de las claves del Universo.

Así lo expuso el director general del Centro Europeo de Investigación Nuclear (CERN), Rolf Heuer, en la presentación de los resultados científicos del primer año de funcionamiento del LHC, durante la Conferencia de Eurofísica sobre Física de Altas Energías, que reúne en Grenoble (sureste de Francia) a 700 científicos.

"La respuesta a la pregunta de Hamlet sobre el 'bosón de Higgs', ser o no ser, la tendremos al final del año que viene", bromeó Heuer, quien subrayó que no se puede esperar "demasiado y demasiado pronto" ya que se trata del primer año de trabajo de una máquina planeada para permanecer operativa dos décadas.

El LHC, un acelerador de partículas construido en un túnel circular de 27 kilómetros y situado bajo la frontera entre Francia y Suiza, está funcionando mejor de lo que cabía esperar.

En su interior se hacen chocar dos haces de protones que rozan la velocidad de la luz y se analizan las altísimas energías subatómicas que producen. El nivel de colisiones ha alcanzado en tres meses el objetivo fijado para todo el año 2011, es decir 70 millones de colisiones de partículas.

Sin embargo, aún será necesario multiplicar por diez la cantidad de datos estadísticos recabados para saber si existe o no el célebre "bosón", denominado también "partícula divina", agregó Heuer.

"Estamos viviendo momentos muy excitantes para la física de partículas" y no disponer aún de los datos que permitan despejar esa incógnita no es en absoluto una "decepción", añadió el director del CERN en una conferencia a la que asistieron, entre otros, los premios Nobel de Física David Gross (2004) y George Smoot (2006).

No hay "decepción por no haber encontrado pistas sobre algo que vaya más allá del Modelo Estándar de la física de partículas", que describe las relaciones entre las interacciones fundamentales conocidas entre partículas elementales que componen toda la materia.

"Estaría decepcionado si la máquina no funcionase", añadió.

Se trata del primero de los misterios físicos que intentan desvelar los expertos que trabajan con los datos que genera el acelerador y tanto probar la existencia del bosón como certificar que no existe sería un descubrimiento.

Si se llegara a encontrar el último elemento que falta en el denominado Modelo Estándar de la física de partículas -enunciado en la década de 1960 por el profesor Peter Higgs- se podría comprender por qué las masas de unas partículas elementales y otras son distintas.

Pero si la deseada partícula no apareciese, evidenciaría que el Modelo Estándar de la física de partículas está incompleto y abriría nuevas vías de pensamiento a los científicos.

En paralelo, hasta finales de 2012, los responsables del CERN abundarán también en otros de los misterios a los que se consagran los físicos que trabajan con el LHC, considerado una de las mayores proezas científicas de la historia de la Humanidad, aunque se espera que "el primer gran descubrimiento llegue el año que viene".

Entre ellos, determinar si existen más de tres dimensiones, comprender las diferencias entre materia y antimateria, saber si existe la supersimetría o determinar si es posible hacer arqueología cósmica y explicar mejor qué pasó durante el Big Bang, hace 14.000 millones de años.

En el tiempo que lleva funcionando el LHC (desde el 20 de noviembre de 2009, tras una avería inicial en 2008) se han comprobado propiedades de partículas ya conocidas, lo que ha permitido avanzar "ahora hacia un territorio inexplorado".

En palabras de Fabio Zwirner, presidente de la división física de altas energías de la Sociedad Europea de Física (EPS, por sus siglas en inglés), "si se compara con el Tour de Francia, el amarillo del maillot ha ganado intensidad".

Una vez empiecen a llegar los primeros resultados científicamente revolucionarios, se podrá plantear la construcción de un nuevo acelerador, tarea que requeriría muchos años y financiación, visto que el actual LHC ha necesitado 20 años de trabajo, 4.000 millones de euros de financiación y la contribución de miles de científicos.

"Tenemos muchos planes, pero empezaremos a estudiarlos cuando el LHC nos diga dónde está el nuevo continente en el que buscar territorios. No tiene sentido poner nada sobre la mesa hasta que no tengamos todos los resultados del LHC", agregaron los expertos.

EFE

domingo, 24 de julio de 2011

El LHC estrecha el cerco sobre la 'partícula de Dios'

Un operario en el detector ATLAS del LHC. CERN
Los científicos a cargo del mayor experimento del mundo, el LHC de Ginebra, han observado una serie de extraños "eventos" físicos que podrían indicar la presencia del esquivo bosón de Higgs, la partícula subatómica para cuya caza fue construida esta enorme máquina de 10.000 millones de euros.

La teoría dice que hace unos 13.700 millones de años, justo después del Big Bang, el Higgs otorgó masa al resto de partículas que hoy componen el universo y permiten la existencia del mundo tal y como lo conocemos. Por ahora, ningún experimento ha logrado detectarlo.

Los nuevos datos se presentaron el viernes durante el congreso internacional Europhysics que se celebra en Grenoble (Francia) hasta el miércoles y donde, por primera vez, los dos grupos científicos que rivalizan por hallar el Higgs compartieron sus resultados. Una vez cruzadas, las lecturas de CMS y ATLAS, los dos grupos, delatan unas señales "intrigantes" que podrían ser una "fluctuación estadística", pero también "rastros de una señal del Higgs", según explicó ayer a este diario Guido Tonelli, portavoz de CMS.

La expectación es tan grande como el miedo a un nuevo fiasco. Este mismo abril, alguien filtró un estudio con datos de ATLAS que anunciaba un indicio del Higgs. Poco después, los 700 científicos del experimento reconocían que aquel indicio era un falso positivo. Pero esta vez es diferente, porque tanto CMS como ATLAS han observado los mismos "intrigantes" indicios, según Tonelli.

ATLAS y CMS son detectores de colisiones con la altura de un edificio de siete plantas. Se ubican a ambos lados del corazón del LHC, un anillo de 27 kilómetros en cuyo interior se hacen chocar protones a casi la velocidad de la luz. Al estrellarse, los protones generan otras partículas más pesadas que a su vez generan otras más ligeras. ATLAS y CMS analizan esas desintegraciones en busca de cuatro patrones que, según los modelos teóricos, delatan la presencia del Higgs, apodado partícula de Dios por su importancia y misterio. Los nuevos datos indican una sospechosa acumulación de esos cuatro patrones del Higgs en un rango de masa entre 115 y 150 gigaelectronvoltios.

Para descubrir la partícula, es esencial conocer antes su masa, algo que los científicos llevan años intentando delimitar. Este nuevo rango de masa "ayudará a concentrar las ideas y los esfuerzos" de los dos equipos que compiten por el Higgs, según Tonnelli. Por intrigantes que sean, los datos aún no tienen suficiente valor estadístico como para saber si se trata de un descubrimiento del Higgs o de un error estadístico.

Hacen falta más colisiones de protones, de las que el LHC realiza 100 millones por segundo, pero entre las cuales sólo una ínfima parte son valiosas. Tonelli señaló que, al ritmo actual, ATLAS y CMS podrán aclarar en "dos o tres meses" si lo que han observado es el Higgs o sólo su espejismo.

NUÑO DOMÍNGUEZ | lavozdeasturias.es

Posible prueba del paso de materia oscura por la Tierra

Uno de los detectores del experimento. (Foto: CoGeNT Collaboration)
La variación estacional registrada recientemente por el experimento CoGeNT, es justo lo que los teóricos habían predicho que ocurriría si la materia oscura resulta ser lo que los físicos llaman Partículas Masivas de Interacción Débil (WIMPs por sus siglas en inglés).

Tal como matiza el físico Juan Collar de la Universidad de Chicago, no se puede aún afirmar que se trata de una huella inequívoca dejada por una partícula WIMP. Es sólo lo que cabría esperar del paso de una partícula WIMP.

La materia oscura constituye cerca del 90 por ciento de toda la materia en el universo. Sin embargo, su identidad sigue siendo uno de los mayores misterios de la ciencia moderna. Aunque la materia oscura es invisible para los telescopios, los astrónomos saben que existe debido a la influencia gravitatoria que ejerce sobre las galaxias.

Los teóricos habían predicho que los experimentos sobre materia oscura podrían detectar una variación cíclica de su abundancia al pasar por la Tierra, debido al movimiento relativo de ésta y el Sol con respecto al plano de la Vía Láctea.

El Sol se mueve en el plano de la galaxia, en las afueras de uno de los brazos en espiral, a una velocidad de 220 kilómetros por segundo. La Tierra orbita alrededor del Sol a 30 kilómetros por segundo. Durante una parte del año, la Tierra se mueve aproximadamente en la dirección opuesta al movimiento del Sol a través de la galaxia, pero durante otro periodo del año su movimiento pasa a estar casi alineado con el del Sol. Esta alineación aumenta la velocidad neta de la Tierra a través de un halo galáctico de partículas de materia oscura, cuya existencia los científicos han deducido a partir de numerosas observaciones astronómicas.

Las WIMPs se moverían en direcciones al azar en este halo, a velocidades similares a la del Sol. Una analogía de esta situación es la del automóvil que se desplaza a través de una nube de mosquitos. Cuanto más rápido va el coche, más mosquitos golpearán contra el parabrisas delantero.

En el experimento CoGeNT, se ha detectado lo que parece ser un promedio de una interacción de partículas WIMP por día a lo largo de sus 15 meses de funcionamiento, pero con una variación estacional del 16 por ciento aproximadamente. Las mediciones de energía concuerdan con las estimaciones de que la masa de una partícula WIMP es de aproximadamente entre 6 y 10 veces la masa de un protón.

sábado, 23 de julio de 2011

Nebulosas planetarias, claves para comprender la evolución de galaxias y estrellas

Nebulosas planetarias
Las nebulosas planetarias, una de las últimas fases en la vida de la mayoría de las estrellas, constituyen una prometedora área de estudio que aporta información sobre la evolución química del Universo y sobre el fin de las estrellas como el Sol.

En el siglo XVIII, sus descubridores llegaron a pensar que lo que veían en sus telescopios ópticos eran planetas gigantes. Sin embargo, las nebulosas planetarias no guardan ninguna relación con ellos. Estos fenómenos astronómicos, capaces de adoptar una gran diversidad de formas, son cruciales para explicar la evolución de estrellas y galaxias. Desde el próximo lunes, 25 de julio, el Instituto de Astrofísica de Canarias (IAC) acoge un simposio internacional que reunirá, durante cinco días, a los principales expertos en este campo de investigación.

La reunión cuenta con el apoyo de la Unión Astronómica Internacional (UAI), que le ha otorgado la categoría de simposio, la de mayor nivel. Bajo el título Planetary Nebulae: An Eye to the Future, el simposio, el número 283 de la organización, reunirá a 150 científicos de los cinco continentes para repasar los últimos avances en este complejo campo de investigación. No en vano, las nebulosas planetarias constituyen un fenómeno relativamente breve en términos astronómicos, pues dura apenas unas decenas de miles de años. Poco espacio de tiempo, si se compara con la vida media de una estrella.

El astrofísico del IAC y organizador del evento, Arturo Manchado, explica la naturaleza del fenómeno: “La mayoría de las estrellas en el Universo pasan por una fase de nebulosa planetaria. Ocurre al final de sus vidas, cuando las capas exteriores de la estrella son expulsadas debido a la acción de los intensos vientos estelares, entre otros factores. Sin estas capas, lo que queda de la estrella es un pequeño núcleo que brilla de manera intensa”. Se trata de una fase transitoria, antes de que las estrellas se conviertan en enanas blancas, un remanente estelar que ha perdido todo su combustible nuclear.

Como apuntan desde la organización del simposio, el hecho de que sea una de las fases finales de la vida estelar confiere a las nebulosas un especial interés a la hora de investigar el origen y evolución de las estrellas. Además, al ser un factor clave para el enriquecimiento químico de las galaxias (sobre todo, de nitrógeno y carbono que se desprende en esta fase), también son relevantes para conocer mejor cómo evolucionan.

Machado amplía este extremo: “Cuando se describen modelos sobre la formación de las galaxias, los astrofísicos se encuentran con el obstáculo de determinar el gradiente de abundancia de materiales químicos entre una galaxia y otra. Las nebulosas planetarias ofrecen datos para esta y otras múltiples cuestiones. Son, en definitiva, laboratorios estelares que nos ayudan a comprender los procesos atómicos y moleculares de diversos entornos astrofísicos”.

Por ejemplo, los últimos avances en este campo han revelado que las nebulosas planetarias pueden emplearse como indicadores de distancia para medir el universo cercano e, incluso, podrían rastrear uno de los grandes enigmas de la astrofísica: la materia oscura, esa materia del universo –de hipotética existencia y composición desconocida- que el ser humano es incapaz de ver con los medios técnicos actuales, ya que no emite o no refleja suficiente radiación electromagnética para ser observada directamente. En la actualidad, su existencia sólo se puede sugerir a partir de los efectos que causa en la materia que sí es visible.

No sólo son relevantes en términos científicos, sino unos objetos estelares que siguen sorprendiendo por su morfología. Con las técnicas actuales, como las observaciones del telescopio de la NASA Hubble, quienes descubrieron las primeras nebulosas no las hubieran confundido con planetas gigantes. Las últimas observaciones han revelado que muchas nebulosas presentan morfologías complejas, lejos de la tradicional esfera a la que se asociaban.

IAC

Siete misterios del Universo

Siete misterios del Universo
Tormentas en Saturno y el Sol, retratos imposibles de agujeros negros y supernovas... Siete fotones cósmicos, siete hallazgos recientes que iluminan el universo pero también abren nuevos enigmas.

El Universo está lleno de contradicciones, tantas como la naturaleza humana. Hay certezas, pero también incógnitas. Un vistazo a las noticias de última hora confirma lo predecible y extraño que puede llegar a ser. Ejemplo de certeza: los científicos rinden tributo a Albert Einstein con observaciones que confirman su teoría de la relatividad general, ese exótico concepto que aúna espacio y tiempo como una sola cosa. Un satélite lanzado en 2004, Gravity Probe B, dotado de cuatro ultrasensibles giroscopios, acaba de demostrar en uno de los experimentos más elegantes, delicados y complejos de la física, que la Tierra, al girar, arrastra al espacio tiempo con ella, tal y como se deduce de los trabajos de Einstein. "Hay que imaginarla como si estuviera inmersa en miel. A medida que el planeta gira, la miel que está alrededor también lo hace con él.

Ocurre lo mismo con el espacio-tiempo", ha comentado Francis Everett, principal investigador de la Universidad de Stanford, quien ha dedicado tres décadas de su vida a probarlo. Ejemplo de incógnita: en el mismo mes de mayo donde se ratificaba a Einstein, astrónomos de la NASA descubrían una serie de diez extraños planetas flotando en medio de la oscuridad del espacio sin ninguna estrella alrededor. Estos mundos, situados entre 10.000 y 20.000 años luz de distancia de la Tierra, tienen el tamaño de Júpiter, y representan una nueva clase de planeta, que no tiene ningún sol al que rendir tributo ni órbita a su alrededor. El equipo de David Bennet, de la Universidad de Notre Dame en South Bend (Indiana, EE UU), especula con que quizá estos mundos han sido expulsados de los sistemas planetarios, convirtiéndose en una suerte de renegados cósmicos. Su número podría ser incluso más astronómico, ¡doblando el de las estrellas de nuestra Vía Láctea!

Vivimos una época gloriosa de la observación; nunca en la historia reciente ha habido tantos telescopios terrestres, radiotelescopios y observatorios en órbita. El universo enseña estas dos caras: una visible, que muestra la violencia de las explosiones estelares, fenómenos que sugieren la existencia de los agujeros negros, o estrellas en su nacimiento, y otra oculta, como la materia oscura, un exótico material no identificado que hace que en el universo actual detectemos muchísima menos materia de la que debería tener, o la energía oscura, en referencia a un extraño fenómeno que está haciendo que el universo se acelere cada vez más. Lo oscuro es un calificativo que se aplica en los artículos técnicos a las cosas de las que sencillamente no se tiene "la menor idea", admite el astrofísico español Antonio Ferriz Mas. Dos caras bien diferentes, pero igualmente fascinantes. Aquí recogemos siete de los últimos acontecimientos que por su belleza o su ciencia han cautivado a científicos y público.

1 Esperando la tormenta solar 'perfecta'

No por ser la estrella más cercana -a 150 millones de kilómetros- el Sol deja de intrigarnos. El pasado 7 de junio sufrió un estornudo, una erupción solar captada por el satélite Observatorio Dinámico Solar de la NASA (SDO): el sol vomitó miles de millones de toneladas de materia. "Nunca habíamos obtenido una imagen de tanta calidad, la verdad es que nos ha sobrecogido a todos", indica el astrofísico español Pere Lluís Pallé, del Instituto de Astrofísica de Canarias (IAC). La clave del fenómeno es el magnetismo. Parte de la materia solar expulsada volvió a caer sobre el Sol, conducida por las líneas magnéticas, las cuales, en palabras de Manuel Vázquez, decano de la astrofísica solar, se disponen en bucles o lazos en las capas exteriores de la estrella, la corona solar. Si estas estructuras magnéticas se hacen inestables, la radiación electromagnética y las partículas de alta energía escupidas por el Sol pueden escapar a la gravedad y formar una tormenta que afecta a nuestro planeta si se interpone en su camino. Los expertos conocen los ciclos de 11 años por los que el Sol sale de una calma profunda, casi sin manchas solares, para enfurecerse.

Y es lo que toca ahora. Ocurrirá a finales de 2012 y comienzos de 2013, cuando las posibilidades de una gran tormenta serán máximas. Afortunadamente, dice Vázquez, las personas de a pie están protegidas por el intenso campo magnético de la Tierra. Estas tormentas solares pueden tardar en llegar hasta tres días desde que se descubren. En marzo de 1989, una tormenta solar causó un apagón en la provincia de Quebec, dejando a millones de personas sin luz durante nueve horas, y causó auroras boreales tan intensas que podían contemplarse en Londres. Nuestra sociedad, señala Vázquez, es ahora más vulnerable: dependemos más de nuestras telecomunicaciones con los teléfonos celulares, Internet y las redes eléctricas, "próximas muchas veces a la saturación". España está en una zona de menor riesgo al encontrarse en una latitud media. Pero no es el caso de regiones como Estados Unidos, Canadá, Reino Unido y Escandinavia.

2 La energía oscura nos 'acelera'

Los astrofísicos están perplejos. El universo se expande cada vez con más rapidez, transcurridos casi 14.000 millones de años del Big Bang. ¿Por qué? Se ha especulado con que estaría infiltrado por una "energía oscura" que ejercería una repulsión antigravitatoria. Chris Blake, de la Universidad de Tecnología en Swinburne (Melbourne, Australia), y su equipo afirman en la revista Monthly Notices de la Royal Astronomical Society que esta energía oscura es real, a partir de un muestreo de 200.000 galaxias (que abarcan un universo de 8.000 millones de años luz) y la velocidad con la que se alejan de nosotros. "Cuanto más lejos estén, más rápido lo hacen", asegura Blake por correo electrónico. "Si una galaxia que se encuentra a 100 millones de años luz de nosotros se aleja a 2.000 kilómetros por segundo, otra galaxia a 200 millones de años luz lo hará a 4.000 kilómetros por segundo".

El muestreo, llamado WiggleZ, trae a colación el famoso error de Albert Einstein, tras dibujar magistralmente la teoría de la relatividad general (por la que la gravedad no es una fuerza, sino una deformación en el tejido del espacio-tiempo, como la que produce una bola de plomo en una sábana de goma). De las ecuaciones de Einstein se deducía que el universo se expandía o se contraía. "Einstein creyó que el universo era estático, y por eso se inventó un término antigravedad, la constante cosmológica, para contrarrestar la gravedad. Diez años después, en 1930, las observaciones pusieron de manifiesto que el universo se expandía, y Einstein abandonó su constante cosmológica describiéndola como el mayor error de su vida. No podía pensar que las observaciones, 70 años más tarde, obligarían a recrear el concepto de "antigravedad". La energía oscura es un absoluto misterio. "No sabemos cuál es su naturaleza física, aunque nuestro trabajo sugiere que se trata de algo homogéneo, distribuido por todo el espacio", admite Blake.

3 Sorpresa en Saturno

Los expertos esperaban una gran tormenta en Saturno para 2020. El fenómeno se presentó mucho antes, y comenzó a gestarse a finales del año pasado. El astrofísico español Agustín Sánchez-Lavega, del grupo de ciencias planetarias de la Universidad del País Vasco, describe las insólitas características de la descomunal tormenta, cuyo vórtice alcanza los 8.000 kilómetros. "En estos momentos es uno de los fenómenos más espectaculares que se puedan observar en el sistema solar. Y es raro. Se da una vez cada año de Saturno, lo que equivale a 30 años terrestres". Cuando aquí en la Tierra lo normal es que una tormenta pueda durar horas, o un par de días a lo sumo, en Saturno se mantiene durante meses, hasta "incluso dar la vuelta al planeta".

Las incógnitas se acumulan. ¿Cómo es posible que una tormenta así dure tanto tiempo en un planeta helado, que está a 1.500 millones de kilómetros de la Tierra? ¿De dónde extrae el calor? Sánchez-Lavega y su equipo publicaron recientemente en la revista Science un meticuloso trabajo sobre el fenómeno. La tormenta provoca cambios químicos en la atmósfera; las nubes blanquecinas están formadas por cristales de amoniaco. Probablemente, argumenta este experto, la tormenta obtiene su energía de las nubes de vapor que se encuentran bajo la espesa neblina que cubre el planeta. Es posible que el vapor de agua actúe como el combustible que alimenta a este huracán.

Saturno es un planeta gigante que tiene diez veces el tamaño de la Tierra y representa un fabuloso laboratorio para desentrañar los mecanismos de fenómenos tan extraordinarios, con vientos de hasta 1.800 kilómetros por hora, lo que permite entender nuestra propia atmósfera. Además, Saturno es una bola de gas. "Si un astronauta viajara a través suyo, se encontraría en medio de un océano gaseoso en el que resultaría cada vez más difícil distinguir el gas del líquido", con un núcleo de hidrógeno en estado metálico de aspecto como el mercurio, pero a una presión un millón de veces la de la superficie terrestre, explica Sánchez-Lavega. La tormenta fue detectada por la sonda Cassini, de la NASA, y el telescopio VLT, en Chile.

4 El corazón caliente de la Vía Láctea

Nuestro viaje por el universo sigue en casa, en la Vía Láctea. El ojo del telescopio espacial Spitzer, de la NASA, está preparado para ver el infrarrojo. Y en esta ocasión ha enfocado al corazón de nuestra propia galaxia, a 26.000 años luz de la Tierra, según detalla la agencia espacial en la web del Spitzer. Un tratamiento por ordenador y un código de colores descubre lo invisible. El centro galáctico produce tanta luz por la acumulación de estrellas que resulta imposible discernir los detalles, y lo único que podemos ver es un borrón luminoso y nubes de polvo estelar. Sin embargo, la radiación infrarroja atraviesa sin problemas estos obstáculos y llega hasta nosotros. Las estrellas más jóvenes y centrales despiden un halo azul. Así, las nubes moleculares ricas en compuestos hidrocarbonados, que giran alrededor del centro galáctico, despiden un fulgor verdoso gracias al pincel informático. Las nubes de polvo calientes dejan un fulgor dorado. La imagen del centro galáctico tiene 2.400 años luz de anchura y 1.360 de altura. El Spitzer desvela la variada química de un universo donde en su mayoría solo hay vacío.

5 El mayor mapa del cosmos en 3-D

Los expertos del Sloan Digital Sky Survey (SDSS) vienen creando asombrosos mapas tridimensionales del universo que incluyen 930.000 galaxias y 120.000 cuásares. El equipo de observación SDSS-III desvela el último y más completo, un cuadro abstracto multicolor. "Hasta ahora, los mapas de distribución contenían galaxias que estaban a unos 8.000 millones de años de nosotros", afirma Andreu Font, investigador del Instituto de Ciencias del Espacio en Barcelona, que ha participado en la elaboración del mapa. "Para observar objetos más lejanos no sirven las galaxias, por lo que incluimos los cuásares". Estos extraordinarios objetos podrían ser galaxias en formación en cuyo centro rugen agujeros negros, por lo que el mapa se enriquece y envejece en el tiempo hasta los 11.000 millones de años. Teniendo en cuenta que el universo conocido ha cumplido casi 14.000 millones de años, sería como contemplarlo cuando tenía una cuarta parte de su edad actual.

El mapa ha desvelado algunos misterios. El hidrógeno que hay entre estos lejanísimos objetos y nosotros absorbe en parte su luz, lo que da una idea de la distribución de la materia (en rojo, las más densas; en azul, las de menor densidad). "Nos ha sorprendido encontrar lo vacío que está el universo", dice Font. El universo además es finito, pero no tiene bordes. ¿Cómo es posible? "Imagine una hormiga que viviese sobre un globo enorme. Le costaría mucho decir si el globo es infinito o no, o saber si vive en un globo gigantesco o en un plano". De la misma manera, uno puede imaginarse el Big Bang como un globo que de repente se hincha. "Cualquier hormiga que esté en el globo verá que sus vecinas se alejan a gran velocidad, pero si vives sobre la superficie del globo, no verás ningún punto que sea especial a los demás". El espectrógrafo BOSS instalado en el telescopio de 2,5 metros que estos expertos manejan en el Observatorio Apache Point en Nuevo México recogió la luz fósil de estos cuásares.

6 Devorador de galaxias

Por definición, casi nada puede escapar de un agujero negro, ni siquiera la luz. ¿Cómo fotografiarlo? El poder combinado de nueve radiotelescopios ofrece una impresionante imagen de chorros de energía en el centro de la galaxia Centauro A, donde puede haber un agujero negro cuya masa es 55 millones la de nuestro Sol. Este sumidero galáctico está tragándose literalmente inconcebibles ríos de materia estelar, la cual se acelera hasta tal punto en su caída que emite radiación en forma de chorros de partículas despedidas a una velocidad que es un tercio la de la luz. "Los chorros de partículas surgen cuando la materia va cayendo hacia el agujero negro, pero aún desconocemos los detalles de cómo se forman y mantienen", ha indicado la astrofísica Cornelia Mueller, de la Universidad de Erlangen-Nuremberg (Alemania), autora principal del trabajo recogido en junio en Astronomy and Astrophysics.

Es posible que cada galaxia conocida tenga su agujero negro (que, en esencia, se traga el gas de sus estrellas). En este caso, los científicos estarían contemplando uno de los fenómenos más extraordinariamente violentos del universo. La región que recoge la imagen mide unos 4,2 años luz (un año luz equivale aproximadamente a 9,4 billones de kilómetros). Dimensiones colosales que desbordan nuestra imaginación. Los dos chorros verticales de la imagen podrían alcanzar una longitud de un millón de años luz.

7 Muerte gloriosa de un vampiro estelar

Terminamos con esta asombrosa imagen, del observatorio Chandra de la NASA; un retrato imposible de una supernova, una estrella que estalló en 1572 y fue observada por el astrónomo danés Tycho Brahe. Su aspecto casi recuerda el de un óvulo humano. Se encuentra a 13.000 años luz de la Tierra. "La imagen, creada por ordenador, combina el aspecto que tendría el remanente de la supernova si pudiéramos ver desde el infrarrojo los rayos X, pasando por el visible", explica el astrofísico español Antonio Ferriz Mas, de la Universidad de Vigo. "Como solo la radiación electromagnética correspondiente al visible es detectable por el ojo humano, jamás podríamos ver así la imagen, incluso observándola con ayuda del más potente telescopio. A los rayos X y al infrarrojo se les ha asignado un código de colores para que podamos contemplar una imagen tan original como bella, como si dispusiéramos de los ojos de Superman". Los tonos marrones y verdosos son turbulencias de la explosión, fenómenos hidrodinámicos como los que hacen que el humo de un cigarrillo se eleve y se vuelva turbulento. Probablemente, el origen de la supernova se debe a que estaba constituida por un sistema estelar binario, en el que una enana blanca, a punto de morir, empieza a vampirizar la masa de su compañera, una gigante roja. Y revive. "La enana blanca, que casi estaba dada por muerta, empieza a aumentar su masa", explica Ferriz. En este proceso de engorde estelar, puede llegar a colapsarse por su propio peso. Al comprimirse más y más, termina por estallar, despidiendo una cantidad increíble de energía.

LUIS M. ARIZA | ELPAIS.com

viernes, 22 de julio de 2011

El LHC presentará medidas inéditas en la física de partículas fundamentales

El LHC presentará medidas inéditas en la física de partículas fundamentales
Científicos de los experimentos del mayor acelerador de partículas del mundo expondrán análisis que restringen la búsqueda del bosón de Higgs en la conferencia de física de altas energías de Grenoble (Francia). El descubrimiento o la exclusión de esta partícula, la pieza que falta del Modelo Estándar, supondrá nuevos retos para el LHC.

La primera de las principales conferencias de física de partículas comienza hoy en Grenoble (Francia). Todos los experimentos del LHC presentarán resultados, y está programada una conferencia de prensa para el lunes 25 de julio. Esta conferencia sigue a un exitoso inicio del funcionamiento del LHC en 2011, y los resultados se esperan con expectación. “Hasta el momento hemos recopilado la cantidad de datos planeada para todo 2011, lo cual es un gran logro para el LHC”, declaró Rolf Heuer, director general del CERN (Organización Europea para la Investigación Nuclear). “Aunque aún es demasiado pronto para los mayores descubrimientos, los experimentos ya han acumulado resultados interesantes”.

Los experimentos del LHC presentarán las medidas con mayor precisión hasta la fecha de procesos conocidos del actual modelo de física de partículas, el Modelo Estándar. Además proporcionarán medidas inéditas y límites sobre fenómenos y partículas como el bosón de Higgs.

“Nos estamos acercando al descubrimiento o la exclusión de la partícula de Higgs tal y como la predice el Modelo Estándar”, aseguró el director de Investigación y Computación del CERN, Sergio Berolucci. “Cualquiera de los dos acontecimientos sería una gran noticia para la física, el primero porque nos permitiría comenzar un estudio detallado de la partícula de Higgs, y el segundo porque sería la primera prueba de que el Modelo Estándar no es completo, lo que requeriría la existencia de nuevos fenómenos detectables en el LHC”.

La velocidad con la que los experimentos son capaces de analizar los datos no tiene precedentes. La red de computación global del LHC, el Grid, que conecta centros de computación alrededor del mundo, ha demostrado estar a la altura, procesando de forma rutinaria 200.000 tareas de análisis de física a la vez.

“Con los datos que hemos analizado hasta el momento, y basándonos en nuestras medidas extensivas de los procesos del Modelo Estándar, estamos empezando a explorar la mayor parte del rango de masa posible para el bosón de Higgs y muchos de los escenarios de nueva física”, dijo la portavoz del experimento ATLAS, Fabiola Gianotti.

“Estamos dando nuestros primeros pasos en este nuevo paisaje de la física”, subrayó Guido Tonelli, portavoz del experimento CMS, “y es fantástico ver qué rápido estamos produciendo nuevos resultados. Confío en que pronto quedarán solo unos pocos rangos de masa donde el bosón de Higgs, tal como está postulado en el Modelo Estándar, pueda estar escondido”.

SINC

jueves, 21 de julio de 2011

Desarrollan un sistema de computación cuántica

Desarrollan un sistema de computación cuántica
Un grupo de investigadores ha desarrollado un sistema de computación cuántica que se resiste a "errores cuánticos". Los científicos han dado el siguiente paso importante hacia la computación cuántica, que utilizará la mecánica cuántica para revolucionar la manera en que se procesan datos. Esta investigación ha sido publicada en la versión 'on-line' de la revista 'Nature'.

Las computadoras cuánticas aprovechan las propiedades de las partículas cuánticas para realizar cálculos complejos imposibles para los ordenadores tradicionales de hoy.

Utilizando campos magnéticos, Susumu Takahashi, profesor asistente en la USC Dornsife College of Letters, Arts and Sciences, y sus colaboradores, lograron suprimir la decoherencia, uno de los principales obstáculos en la computación cuántica.

"Los altos campos magnéticos reducen el nivel del ruido, por lo que pueden limitar la decoherencia de manera muy eficiente", dijo Takahashi. La decoherencia ha sido descrita como un "error cuántico" que destruye las propiedades fundamentales en las que se basan los ordenadores cuánticos.

La computación cuántica utiliza bits cuánticos o qubits, para codificar la información en forma de unos y ceros. A diferencia de una computadora tradicional que utiliza bits tradicionales, una computadora cuántica aprovecha el hecho, aparentemente imposible, de que los qubits puedan existir en varios estados al mismo tiempo, lo que se conoce como "superposición".

Mientras un bit puede representar un uno o un cero, un qubit puede representar un uno y un cero a la vez debido a la superposición. Esto permite procesamientos simultáneos de cálculos en un verdadero sistema paralelo.

Aunque los conceptos que sustentan la computación cuántica no son nuevos, problemas como la decoherencia han impedido la construcción de una computadora cuántica que funcione plenamente. La decoherencia es una forma de ruido o interferencia que evita la superposición de la partícula cuántica, robándole la propiedad especial que la hace tan útil. Una computadora cuántica se basa en la capacidad de una partícula cuántica de estar tanto aquí como allá y el fenómeno de la decoherencia frustra este hecho.

Los investigadores calcularon todas las fuentes de la decoherencia en su experimento, como la función de la temperatura, el campo magnético y a través de las concentraciones de isótopos nucleares, sugiriendo que la condición óptima para los qubits pasa por la reducción de la decoherencia aproximadamente unas 1.000 veces. Los qubits en el ensayo permanecieron 500 microsegundos en estado óptimo.

En los sistemas de decoherencia los qubit se dividen en dos categorías generales. Una de ellas es la decoherencia intrínseca causada por componentes dentro del sistema de qubits, y la otra es una decoherencia extrínseca, causada por las imperfecciones del sistema como impurezas y defectos.

En su estudio, Takahashi y sus colaboradores investigaron con monocristales de imanes moleculares. Debido a su pureza, estos monocristales eliminan la decoherencia extrínseca permitiendo a los investigadores calcular con precisión la decoherencia intrínseca.

"Por primera vez hemos sido capaces de predecir y controlar todos los mecanismos de decoherencia ambiental en un sistema muy complejo -- en este caso una molécula magnética grande", ha comentado Phil Stamp, profesor de física y astronomía en la UBC y director del Pacific Institute of Theoretical Physics.

Utilizar imanes moleculares cristalinos permitió a los investigadores construir qubits de múltiples partículas cuánticas - la manera en que se construyen la mayoría de computadoras proto-cuánticas actualmente.

"Obviamente, esto aumentará las señales del qubit drásticamente, por lo que la detección de este en los imanes moleculares será mucho más fácil", dijo Takahashi, que condujo su investigación como un proyecto del Institute of Terahertz Science and Technology y del Department of Physics de la University of California Santa Barbara.

EUROPA PRESS

miércoles, 20 de julio de 2011

Una superburbuja cósmica

Una superburbuja cósmica
El Very Large Telescope de ESO capturó esta vista impresionante de la nebulosa alrededor del cúmulo de estrellas NGC 1929 en la Gran Nube de Magallanes, una galaxia satélite de nuestra Vía Láctea. Esta guardería estelar está dominada por un ejemplar colosal de lo que los astrónomos llaman una superburbuja. Su forma está siendo esculpida por los vientos de brillantes estrellas jóvenes y las ondas expansivas de las explosiones de supernovas.

La Gran Nube de Magallanes es una pequeña galaxia vecina a la Vía Láctea. Contiene muchas regiones donde las nubes de gas y polvo están formando nuevas estrellas. Una de estas regiones, alrededor del cúmulo estelar NGC 1929, domina esta nueva imagen obtenida con Very Large Telescope de ESO, situado en la Región de Antofagasta en Chile. Esta nebulosa es conocida oficialmente como LHA ​​120-N 44, o simplemente N 44. Estrellas jóvenes y calientes en NGC 1929 emiten intensa luz ultravioleta que hace brillar el gas. Este efecto permite que resalte la llamada superburbuja, un inmenso globo de material de unos 325 por 250 años-luz de diámetro. Comparativamente, la estrella más cercana a nuestro Sol se encuentra a poco más de cuatro años-luz de distancia.

La superburbuja N 44 se produjo por la combinación de dos procesos. En primer lugar, los vientos estelares -flujos de partículas cargadas provenientes de estrellas muy calientes y masivas en el cúmulo - limpiaron la región central. Posteriormente, las estrellas masivas del cúmulo explotaron como supernovas creando ondas expansivas que empujaron el gas hacia afuera y formaron la brillante burbuja.

Si bien la superburbuja nace de fuerzas destructivas, nuevas estrellas se están formando alrededor de los bordes, donde el gas está comprimido. Como un reciclaje a escala cósmica, esta nueva generación de estrellas traerá nuevos aires de vida a NGC 1929.

ESO, Observatorio Europeo Austral

martes, 19 de julio de 2011

A por la medida cuántica ideal

A por la medida cuántica ideal
Investigadores del Laboratorio Kastler-Brossel de París (Francia) describen en el último número de Nature cómo obtener una medida cuántica casi ideal, que permite detectar el estado de un átomo con la mínima perturbación posible. El secreto es utilizar una pequeña cavidad óptica con dos espejos enfrentados.

En física cuántica, el acto mismo de medir cambia el estado del objeto medido, un fenómeno conocido como back-action. “Cuando miramos un objeto, cambia su estado, y en mecánica cuántica esto no es una hipótesis filosófica, sino un mecanismo fundamental con consecuencias medibles”, subraya a SINC Jakob Reichel, científico del Laboratorio Kastler- Brossel y autor principal del estudio. “Esta back-action fundamental juega un papel importante en la teoría cuántica y en sus aplicaciones, como la criptografía y la computación cuántica”.

Sin embargo, en la mayoría de las mediciones reales del laboratorio, la back-action –la acción posterior a la perturbación– es casi siempre mucho mayor que lo que plantea la teoría. Por ejemplo, los métodos que utilizan la luz para detectar átomos o iones siempre conllevan una dispersión espontánea de fotones, que intercambian energía (calor) con el objeto a medir, cambiando su estado.

Este calentamiento enmascara la back-action, que es mucho más pequeña, y destruye los delicados bits cuánticos utilizados en el procesamiento de información cuántica. Pero ahora, el nuevo experimento demuestra que se puede realizar una medición óptica sin causar calentamiento, según se explica en la revista Nature.

Para ello los investigadores utilizan un resonador óptico, una cavidad óptica denominada Fabry-Perot, que consiste en dos espejos cóncavos colocados cara a cara, miniaturizados mediante novedosas tecnologías de fibra óptica.

“Como el resonador es muy pequeño, un solo átomo colocado entre los espejos es suficiente para cambiar su frecuencia de resonancia en una cantidad considerable”, señala Reichel. Un láser afinado a la resonancia de la cavidad vacía incide en un fotodiodo situado detrás del segundo espejo.

Cuando se interpone un átomo, la frecuencia de resonancia de la cavidad cambia y el láser se refleja en el primer espejo, dejando el átomo en la oscuridad. De esta forma, los fotones de láser examinan la presencia del átomo sin necesidad de entrar en la cavidad, lo que evita la dispersión espontánea y el calentamiento asociado.

Los investigadores también han analizado el estado del átomo después de la medición, lo que les permite facilitar una prueba experimental del calor reducido. Y por último, han utilizado otro fenómeno de la mecánica cuántica llamado efecto Zeno para medir la back-action.

Además de facilitar un ejemplo convincente del proceso de medición cuántica, los nuevos resultados son importantes para la ingeniería cuántica con átomos e iones, y pueden ayudar a fabricar detectores de moléculas individuales mejores que los actuales.

SINC

lunes, 18 de julio de 2011

La victoria de la materia sobre la antimateria empieza a entenderse

 El LHCb es el detector diseñado para buscar fuentes de asimetría entre materia y antimateria
Durante siglos el ser humano ha dirigido su mirada hacia el cosmos sin más opción que la de especular sobre su origen. El problema radicaba en la imposibilidad de ver realmente qué es lo que sucedía en las entrañas del Universo.

Hoy, los nuevos experimentos disponibles han hecho posible la recreación, a nivel microscópico, de algunos de los procesos que han dado origen a todo lo conocido. Esto permite a los investigadores reconstruir la historia y resolver así algunos de los enigmas de la física. Uno de ellos, relacionado con el enfrentamiento entre la materia y la antimateria, puede estar cerca de ser resuelto, según un estudio publicado en internet por los miembros del experimento Tevatron en EEUU.

Así como los historiadores buscan pruebas para averiguar el origen de los conflictos y entender los detalles que llevaron a uno de los dos bandos a la derrota, los físicos de partículas intentan comprender los procesos que llevaron a la materia al triunfo sobre la antimateria, relegada a un lugar secundario de la historia. Ninguna de las fútiles guerras del hombre ha tenido la repercusión y la importancia de la que libraron partículas y antipartículas hace más de 13.000 millones de años. Una lucha por la supervivencia cuyo resultado determinó la evolución de todo el Universo.

Para estos historiadores del cosmos se han diseñado los grandes experimentos de partículas, entre los que destaca el Gran Acelerador de Hadrones (LHC, por sus siglas en inglés), un anillo de 27 kilómetros de circunferencia construido en la frontera entre Francia y Suiza y que ha superado en dimensiones y posibilidades al Tevatron, acelerador estadounidense cuyo anillo apenas alcanza los seis kilómetros. Sin embargo, ya en sus estertores, el más pequeño de los dos aún da resultados sorprendentes.

Los datos analizados en los últimos meses por los científicos de Tevatron, muestran cómo en un tipo de colisión entre partículas se produce una ligera tendencia a generar más materia que antimateria. Estos resultados, aún preliminares, podrían ser confirmados por el LHC en los próximos meses y abrir así un camino hacia la respuesta a una de las grandes preguntas de la física: ¿por qué y cómo venció la materia?

Para situar el problema, el profesor de investigación del CSIC y jefe de la unidad teórica del Instituto de Física Corpuscular, José Furtado Valle, se remonta al origen de todo, el Big Bang. Durante este periodo el Universo no era más que una sopa de partículas que chocaban entre sí a gran temperatura y "en este escenario inicial la creación de partículas se daba de forma democrática, con cantidades iguales de materia y antimateria", explica Valle. El problema es que, "si no existieran mecanismos que favorecieran la creación de una de ellas, el Universo sería un plasma simétrico". En esta situación, partículas y antipartículas se habrían aniquilado mutuamente, con lo que no existirían estrellas, ni planetas, ni seres humanos. Para los físicos, está claro que de algún modo se generó menos antimateria, por lo que "tienen que existir mecanismos que favorezcan la creación de materia", afirma Valle.

Pero el problema no queda ahí. Si bien ya se conocían otras fuentes de asimetría, "estas no son suficientes para explicar la actual constitución del Universo", explica Valle. En este escenario, queda claro que el objetivo es encontrar esas fuentes que ayuden a generar más materia que antimateria. En este sentido, el descubrimiento de Tevatron puede ayudar a resolver el problema. "El resultado que han obtenido -asegura Valle- pese a no estar confirmado, es llamativo, pues es la primera vez que se detecta una asimetría que va más allá de la teoría estándar".

TEGUAYCO PINTO | Publico.es

Twitter Delicious Facebook Digg Stumbleupon Favorites More