miércoles, 30 de noviembre de 2016

Cantata al Universo: gravedad más allá de Einstein



Imagen Campo Profundo del Hubble

Observaciones llevadas a cabo en los últimos años han puesto de manifiesto que el Universo a gran escala no se comporta como esperaríamos a partir de la teoría de la gravedad de Einstein y nuestro conocimiento sobre las fuentes de materia y energía que habitan en él. De hecho, el desajuste es tan grande que, para poder encontrar un acuerdo razonable entre la teoría y las observaciones, es necesario asumir que cerca del 95% del contenido de materia y energía del Universo son de naturaleza totalmente desconocida. Las estrellas, nubes de gas, y todas las otras formas de materia y radiación que observamos en laboratorio tan solo representarían un 5% de la energía total del Universo.

La teoría de la Relatividad General de Einstein sólo nos dice que una parte de ese 95%, aproximadamente el 27%,  puede formar grumos o acumulaciones, la llamada materia oscura, mientras que el 65% restante, conocido como energía oscura, está distribuido uniformemente por todo el espacio y, además, tiene propiedades gravitatorias repulsivas. Como resultado de esa gran cantidad de energía oscura, la expansión del universo no se frena, si no que se acelera.

La imagen que proporciona la Relatividad General sobre la composición del Universo podría verse dramáticamente alterada si esta teoría no fuera aplicable a las escalas en las que la materia y energía oscuras son necesarias. Desde un punto de vista teórico, existen razones sólidas para creer que la Relatividad General de Einstein debe ser modificada a altas energías (típicamente asociadas a cortas distancias) para poder combinarla satisfactoriamente con el resto de interacciones conocidas, las cuales manifiestan propiedades cuánticas. Por un razonamiento análogo, es legítimo pensar que a grandes escalas (o muy bajas energías) podrían surgir nuevos efectos gravitatorios que alterasen la dinámica cosmológica y galáctica. De esta manera, la necesidad de fuentes de materia y energía oscura podría interpretarse como la manifestación de esa nueva dinámica gravitatoria. Por tanto, es de gran importancia explorar nuevas teorías de gravedad y sus implicaciones para la correcta interpretación de los datos observacionales de los que disponemos.

COST es un programa de la Unión Europea que potencia la colaboración de investigadores, académicos y otros agentes en torno a un reto científico. La acción CA15117 – “Cosmology and Astrophysics Network for Theoretical Advances and Training Actions (CANTATA)” financiada por este programa, permite a investigadores europeos que trabajan en teorías alternativas de gravedad coordinarse y unir sus esfuerzos y conocimientos para alcanzar un fin común. El principal objetivo de esta colaboración es el de encontrar un modelo teórico efectivo capaz de dar cuenta de la fenomenología relacionada con la gravedad cuántica (agujeros negros y el universo primitivo), así como de la fenomenología propia de escalas astrofísicas y cosmológicas en las que desde el prisma de la Relatividad General es necesario invocar fuentes de materia y/o energía oscura.

La primera reunión de CANTATA tuvo lugar en Lisboa los días 14-15 de Noviembre de 2016. En esta reunión, en la que participaron alrededor de 100 investigadores, se presentaron las principales líneas de actuación de los diferentes grupos de trabajo:

- Grupo 1: Gravedad Modificada. Este grupo lleva a cabo estudios de naturaleza teórica sobre diferentes teorías de gravedad teniendo en cuenta tanto el régimen de altas como de bajas energías. Por lo tanto, investiga la viabilidad de estas teorías a diferentes escalas: en el laboratorio, en el sistema solar y a escalas galácticas y cosmológicas. Además, considera la posible compatibilidad de estas teorías con un marco teórico subyacente de gravedad cuántica.

- Grupo 2: Efectos Relativistas. Este grupo tiene como objetivo descubrir efectos relativistas capaces de discriminar entre los efectos producidos por gravedad modificada de aquellos producidos por nuevas fuentes de materia/energía. Llevará a cabo estudios sobre modelos cosmológicos no homogéneos y/o anisótropos,  sobre la determinación de las abundancias de partículas generadas durante el universo primitivo (reliquias), profundizar en el concepto de energía del vacío, existencia de nuevos campos gravitatorios y modos de polarización de ondas gravitacionales.

- Grupo 3:  Discriminadores Observacionales. Es necesario encontrar la manera de distinguir entre modelos de materia/energía oscura y modelos de gravedad modificada, pues no siempre es obvio. Para ello, un paso fundamental es considerar los efectos producidos por pequeñas perturbaciones y su impacto en la formación y evolución de estructuras cósmicas. Los detalles de estos procesos son muy sensibles a las ecuaciones de la teoría, lo que proporciona una vía óptima para confrontar las diferentes teorías con los datos observacionales.

Miembros de la acción Cantata en Lisboa

Además de facilitar la interacción entre investigadores de distintos países, las acciones COST tratan de impulsar la participación de jóvenes científicos y de aliviar las desigualdades de género que afectan negativamente a la representatividad de las mujeres en el ámbito científico. La estructura de la Acción se ha pensado para cumplir con estos objetivos. Así, los grupos de trabajo están dirigidos por un investigador senior y uno más joven, manteniéndose en todos los casos la paridad de géneros.

La representación española en CANTATA es muy significativa, siendo la Dra. Ruth Lazkoz (profesora en la Universidad del País Vasco) la líder de la Acción y la Dra. Prado Martín Moruno (investigadora postdoctoral en la Universidad Complutense de Madrid) la co-líder del Grupo 1. El Dr. Gonzalo J. Olmo (investigador Ramón y Cajal en el IFIC/Universidad de Valencia) y la Dra. Prado Martín Moruno son los dos miembros del Comité Gestor que representan a España en esta Acción. Actualmente participan en ella investigadores de 23 países.


Texto de Gonzalo Olmo con la colaboración de Prado Martín. 










miércoles, 23 de noviembre de 2016

Unificación






Una de las herramientas más útiles que los físicos teóricos poseemos para desentrañar las leyes de la Física a niveles cada vez más profundos consiste en sintetizar las causas y características comunes de fenómenos aparentemente distintos. Este modo de razonar se conoce como unificación.

Las ideas de unificación se remontan a los propios orígenes de la ciencia moderna. En el siglo XVII, Isaac Newton dedujo que el movimiento de los planetas del Sistema Solar y el movimiento de una manzana que cae de su árbol en la Tierra se debe al mismo fenómeno físico: la gravitación. Esto, que para nosotros en el siglo XXI es tan obvio, ciertamente no lo era hasta que Newton así lo explicó. Podemos, pues, decir que Newton unificó la mecánica celeste y la terreste: fenómenos cuya naturaleza se pensaba completamente distinta, resultaban ser distintas manifestaciones de las mismas leyes de gravitación.


Otra gran idea unificadora ocurrió en el siglo XIX, cuando el físico escocés James Clerk Maxwell reconoció que la electricidad y el magnetismo resultan ser dos caras distintas de las mismas leyes físicas. En un fiel paralelismo de esta situación física, en la actualidad conocemos a la teoría de Maxwell como electromagnetismo, condensando así el concepto en una única palabra. Las leyes del electromagnetismo, junto con posteriores desarrollos en la física de materiales, la electrónica y la computación, nos permiten ahora disfrutar de nuestros contenidos favoritos en la red, como este blog.

James Clerk Maxwell

No es, sin embargo, hasta principios del siglo pasado cuando las ideas sobre unificación irrumpen con fuerza en la física tal y como las conocemos hoy en día. Lo hacen, cómo no, de la mano del gran genio Albert Einstein. En 1905, un detallado estudio de las propiedades del movimiento de los cuerpos sometidos a las leyes de Maxwell del electromagnetismo llevó a Einstein a formular su teoría especial de la Relatividad. Entre otras muchas cosas, la teoría especial de la Relatividad establece que tiempo y espacio han de verse realmente como componentes en pie de igualdad en un espacio-tiempo unificado de cuatro dimensiones.

El calificativo de especial de la teoría de Einstein de 1905 hace referencia a que esta teoría se ha de aplicar a todos los procesos físicos con excepción de aquellos que involucran la gravitación. El electromagnetismo clásico de Maxwell era el caso paradigmático que implementaba las ideas relativistas de Einstein. También era el contexto, como ya hemos señalado, en el que la relatividad especial fue originalmente formulada.

Para el propio Einstein era evidente que la teoría especial de la relatividad excluía la física de los fenómenos gravitatorios. Acomodarlos requería una generalización en absoluto obvia de la teoría. Unos diez años llevó a Einstein encontrar esa generalización. Este año conmemoramos el centenario de la teoría general de la Relatividad, la extensión que incluye los efectos gravitatorios en el marco de las ideas relativistas. La Relatividad General explica la atracción gravitatoria en términos geométricos: los objetos masivos deforman y curvan el tejido espacio-temporal a su alrededor. Por ejemplo, el sol curva el espacio-tiempo creando surcos, que nosotros percibimos como órbitas, en los que se mueven los planetas. De la misma manera, la Tierra, al curvar el espacio-tiempo a su alrededor, fuerza a una manzana que se desprende de su árbol a caer sobre su superficie.


La teoría de la gravitación de Newton, y posteriormente la extensión relativista de Einstein, unifica la física terrestre con la celeste. La teoría de Maxwell unifica la electricidad y el magnetismo. Así pues, a principios del siglo pasado una pregunta evidente era si existe una teoría que describa simultáneamente la gravitación de Einstein y el electromagnetismo de Maxwell. En este contexto, el matemático alemán Theodor Kaluza propuso una audaz idea. Kaluza planteó abandonar la idea de un espacio-tiempo cuatro-dimensional y formuló una versión cinco-dimensional de la Relatividad General. Es decir, Kaluza sugirió la existencia de una cuarta dimensión espacial, además de las tres dimensiones espaciales habituales y el tiempo, y planteó las ecuaciones de la Relatividad General en ese espacio-tiempo cinco-dimensional. Kaluza demostró matemáticamente que sus ecuaciones en cinco dimensiones contenían las ecuaciones de la gravitación de Einstein y el electromagnetismo de Maxwell en las convencionales cuatro dimensiones.

Theodor Kaluza

Intuitivamente, la idea de Kaluza funciona porque en cinco dimensiones hay «más lugar» que en cuatro para acomodar un mayor número de leyes físicas. Sin embargo, como es de suponer, esta extravagante idea fue recibida con reservas: si existe una cuarta dimensión espacial, es decir, una quinta dimensión del espacio-tiempo, ¿por qué no somos capaces de verla? Einstein, al recibir el artículo de Kaluza para su publicación en la revista de la Academia Prusiana de Ciencias, tardó dos años en dar su visto bueno. Un retraso semejante en la actualidad dejaría en la estacada a más de uno, dado el exigente régimen de «publish or perish» al que nos vemos sometidos los investigadores.

La solución al problema de la invisibilidad de la quinta dimensión del espacio-tiempo fue propuesta unos años más tarde por el físico sueco Oskar Klein. La explicación dada por Klein se basa en suponer que tal dimensión adicional no es extensa, como el resto, sino que se enrolla sobre sí misma formando un minúsculo círculo. Según Klein, si tuviéramos los medios necesarios para explorar distancias muy pequeñas, veríamos que cada punto del espacio tridimensional ordinario tiene estructura y es, en realidad, un pequeño círculo. De la misma manera, un objeto distante se nos antoja un mero punto y solo si nos acercamos somos capaces de distinguir sus dimensiones reales.

Oskar Klein 


La idea original de Kaluza-Klein es de gran belleza y completamente válida desde un punto de vista estrictamente especulativo. No obstante, sin ni siquiera tener que verse sometida a veredicto experimental, descubrimientos posteriores sugieren que esta teoría no puede ser completamente correcta. Una poderosa razón la proporciona, de nuevo, el argumento unificador. La quinta dimensión de Kaluza-Klein efectivamente unifica gravedad y electromagnetismo, las dos interacciones conocidas cuando esta teoría fue propuesta. Sin embargo, actualmente sabemos que hay dos interacciones fundamentales más, que quedan fuera del marco de Kaluza-Klein. Estas dos interacciones se conocen, en un alarde de originalidad notacional, como interacciones nucleares fuerte y débil. La primera es responsable de mantener los protones unidos en los núcleos atómicos. A cuenta de la segunda funcionan, por ejemplo, las centrales nucleares.

Hay otra razón de mayor calado por la cual resulta necesario revisar la teoría de la gravitación de Einstein. La razón es que, mientras que el electromagnetismo y las fuerzas nucleares fuertes y débiles se amoldan a los preceptos de la mecánica cuántica, la teoría de Einstein no lo hace: la Relatividad General es una teoría, la cima de hecho, de la mecánica clásica. Y esto es un serio problema cuando se pretenden estudiar fenómenos a escalas donde los efectos cuánticos son importantes, como por ejemplo procesos en presencia de agujeros negros o la singularidad inicial del universo, el big bang.


Así pues, la pregunta es pertinente: ¿existe una formulación única que describa todas las interacciones fundamentales y, en particular, la versión cuántica de la gravitación? Es evidente que necesitamos nuevas ideas para abordar estos problemas. La teoría de cuerdas es el marco en que muchos físicos teóricos trabajamos para dar respuesta a esas preguntas. En posts sucesivos contaremos sus fundamentos. 


Texto de Óscar Varela, Doctor en Físicas, Assistant Professor en Utah State University, y Senior Scientist en Max Planck Insitut für Gravitationsphysik, Postdam. 

jueves, 17 de noviembre de 2016

La Física en la Medicina



Si a un gran número de personas se les preguntase acerca de la presencia de físicos en los hospitales, prácticamente la inmensa mayoría mostraría su desconocimiento. La labor desarrollada en estos centros es incluso ignorada por profesionales sanitarios, y hasta cierto punto, lo es también por el resto de la comunidad de físicos.
El vínculo entre la Física y la Medicina es tan antiguo como el afán de conocer los mecanismos de funcionamiento del cuerpo humano. Las investigaciones en biomecánica se remontan a la época de Leonardo da Vinci, con los estudios de anatomía y de las proporciones, así como la invención de dispositivos que emularan el comportamiento de especies animales, como los intentos por dotar al ser humano de la capacidad de volar.
La observación de estructuras de reducidas dimensiones que a simple vista no pudieron describirse con anterioridad fue posible gracias a la invención del microscopio por Z. Janssen en 1590, apareciendo su uso en 1665 en la observación de capilares sanguíneos en la obra de W. Harvey y por R. Hooke, el mismo año, quien describió por primera vez el concepto de célula al observar las celdillas de un corte de corcho. El primer microscopio electrónico se debe a E. Ruska y M. Knoll entre 1925 y 1930, quienes se basaron en los estudios de Louis-Victor de Broglie acerca de las propiedades ondulatorias de los electrones. Un microscopio electrónico utiliza electrones en lugar de luz visible para la formación de las imágenes debido a que la longitud de onda de los electrones es mucho menor que la de los fotones de luz visible, alcanzando amplificaciones mayores que los mejores microscopios ópticos.
Sin embargo, el avance que probablemente más ha contribuido al desarrollo de la Medicina en el siglo XX fue el descubrimiento en 1895 de los rayos X por el físico alemán Wilhelm Conrad Röntgen, mientras investigaba la fluorescencia que producían los rayos catódicos. Los rayos X son una radiación electromagnética debida a fenómenos de transición electrónica en las capas profundas de la corteza atómica, o producidos, fundamentalmente, por la desaceleración de electrones como radiación de frenado.
En general, la energía de los rayos X se encuentra entre la radiación ultravioleta y los rayos gamma producidos por transiciones nucleares. Estas tres modalidades de radiación electromagnética pertenecen a la categoría de radiaciones ionizantes porque al interactuar con la materia producen la ionización de sus átomos, es decir, originan partículas cargadas (iones).
Por este descubrimiento, Röntgen recibiría el Premio Nobel de Física en la primera edición celebrada en 1901. En la primavera de 1895, Henri Becquerel descubrió accidentalmente la capacidad de algunas sales de uranio para ennegrecer una película radiográfica de manera espontánea, a diferencia de la fosforescencia que depende de la estimulación mediante una fuente externa de energía. Estos recientes descubrimientos influenciaron a María Sklodowska Curie a desarrollar en este campo de investigación su tesis doctoral (Recherches sur les substances radioactives) y con la colaboración de su esposo, Pierre Curie, describieron los fenómenos por los que espontáneamente se desintegran algunas sustancias dando origen a la radioactividad natural.
Los tres recibieron el Premio Nobel de Física en 1903 como reconocimiento a sus investigaciones conjuntas acerca de la radiactividad, siendo además la primera ocasión en que una mujer obtenía este galardón.

El interés por las aplicaciones prácticas que estos descubrimientos pudieran aportar a la Medicina fue inmediato. Durante la Primera Guerra Mundial (IGM), los hospitales de campaña carecían de personal experimentado y máquinas de rayos X adecuadas, de modo que Marie Curie propuso emplear equipos portátiles de radiografía cerca de las líneas del frente para ayudar a los médicos en el campo de batalla. Adquirió equipos de rayos X, vehículos, generadores auxiliares, y desarrolló unidades móviles de radiografía a las que llamó «ambulancias radiológicas» (ambulances radiologiques). Fue la directora del Servicio de Radiología de la Cruz Roja francesa y creó el primer centro de radiología militar de Francia, operativo a finales de 1914.

Madame Curie en una de las unidades móviles de rayos X

En 1915, empleó cánulas de sus propios suministros que contenían «emanaciones de radio», un gas incoloro y radiactivo emitido por el elemento, que posteriormente fue identificado como radón, para la esterilización de los tejidos infectados. Se estima que más de un millón de soldados heridos fueron tratados con sus unidades de rayos X.
En su primera visita a Estados Unidos, con la finalidad de recaudar financiación para la síntesis del radio dados los extremados costes de producción y la utilización de las reservas durante la IGM, el New York Times publicó en su portada que Madame Curie tenía la intención de «poner fin al cáncer», alegando que «el radio es la cura para cualquier tipo de cáncer».

La radioterapia (en su origen Curieterapia, o Röntgentherapie en Alemania) es introducida en España en el año 1906 por Celedonio Calatayud, primer médico español en utilizarla en la lucha contra el cáncer. En 1922 la oncología es establecida como disciplina médica. Desde entonces, la radioterapia ha evolucionado con la aparición en 1953 de los aceleradores lineales, principalmente electrones aunque también de partículas cargadas, que poco a poco reemplazaron los tratamientos con fuentes radiactivas como el cobalto.

Sesión de radioterapia en el Istituto Nazionale per lo Studio e la Cura dei Tumori, hacia 1930. En la actualidad, Fondazione IRCCS, Istituto Nazionale dei Tumori, Milán

No obstante, los usos del radio desgraciadamente trascendieron del ámbito de la oncología, dado el desconocimiento que por entonces se tenía de sus potenciales efectos nocivos para la salud. Hasta finales de los años 60 se usaba en pinturas luminiscentes para relojes y otros instrumentos. Muchos pintores de esferas de reloj, que usaban sus labios para moldear el pincel, murieron de radiación. El radio se empleaba a principios de siglo y hasta los años 30 en medicinas, entre ellos el Radithor (agua destilada con radio), que lo describían como solución ante todos los males, hasta que causó la muerte a un personaje importante de la sociedad americana (M. Byers). El escándalo contribuyó a la introducción de normas de regulación del uso de radioisótopos. También se mezclaba con pastas dentales, chicles, cremas y demás productos. El motivo era que todo aquello que contenía radio significaba avance.
El riesgo para la salud no sólo depende de la intensidad de la radiación y de la duración de la exposición, sino también del tipo de tejido afectado y de su capacidad de absorción. Los efectos mutagénicos de la radiación fueron identificados por primera vez por Hermann Joseph Muller en 1927, investigación por la que le fue concedido el Premio Nobel de Medicina en 1946.
El desarrollo de la radiobiología ha permitido profundizar en el conocimiento del daño celular que las radiaciones ionizantes causan de manera probabilística o determinista, sentando, respectivamente, las bases de la prevención en materia de protección radiológica, o de su utilización en el tratamiento oncológico.
Los avances tecnológicos acontecidos durante la Segunda Guerra Mundial (IIGM), como la invención del radar, tuvieron también su impacto en el ámbito de la oncología, dado que el mismo ingenio desarrollado en 1937 en Stanford por los hermanos Russell y Sigurd Varian, conocido como klystron, responsable de generar y amplificar señales de microondas, es así mismo utilizado en la aceleración de los paquetes de electrones introducidos en las cavidades resonantes de una guía de ondas, los cuales experimentarán posteriormente el impacto en un blanco de tungsteno generando, por radiación de frenado, los haces de fotones dedicados al tratamiento de lesiones tumorales.
En el diagnóstico por la imagen los avances en la detección de enfermedades mediante exploraciones realizadas con tomografía computadorizada (CT), tomografía por emisión de positrones (PET), o resonancia magnética nuclear (RMI), así como equipos híbridos, o bien la ecografía basada en ultrasonidos, han permitido un conocimiento detallado con unos procedimientos no invasivos.
G.N. Hounsfield, tras la IIGM ingresó en la empresa discográfica EMI y en 1967, en colaboración con A.M. Cormack, desarrollaron el primer prototipo aplicable de CT, recibiendo ambos el Premio Nobel de Medicina en 1979.
La primera aplicación médica basada en la aniquilación de positrones se debió a W.H. Sweet y F.R. Wrenn, quienes en 1951 la emplearon en la detección de tumores cerebrales. En 1973 Robertson desarrolló el primer tomógrafo de anillo en el Brookhaven National Laboratory, el cual disponía de 32 detectores. A finales de 1974, M. Phelps y E.J. Hoffman de la Universidad de Washington construyeron el primer PET dedicado a estudios con humanos, el cual disponía de 48 detectores de NaI(Tl) distribuidos hexagonalmente.
La imagen por resonancia magnética se basa en los distintos tiempos de relajación de los núcleos de hidrógeno, generalmente, que componen los tejidos cuando son excitados por pulsos de radiofrecuencia en presencia de un campo magnético de alta intensidad. Este fenómeno fue descrito en 1938 por I. Rabí. En 1946, F. Bloch y E.M. Purcell refinaron la técnica usada en líquidos y sólidos, por lo que compartieron el Premio Nobel de Física en 1952.
Purcell colaboró en el desarrollo del radar y sus aplicaciones durante la IIGM en el Instituto Tecnológico de Massachusetts (MIT). En ese proyecto se dedicó a producir y detectar energía de radiofrecuencia, así como su absorción por la materia. Encontraron que algunos núcleos podían absorber la energía de radiofrecuencia en presencia de un campo magnético de una intensidad específica, logrando así la identificación de los núcleos.
Cuando se produce esa absorción, los núcleos entran en resonancia. Diferentes núcleos atómicos dentro de una molécula resuenan a diferentes radiofrecuencias para la misma intensidad de campo magnético, permitiendo la identificación estructural y química de las moléculas.
La ecografía se basa en la formación de imágenes reconstruidas a partir del eco recibido en una sonda (transductor) consistente en cristales piezoeléctricos que al ser estimulados por electricidad vibran produciendo ondas sonoras de alta frecuencia (ultrasonidos). El eco reflejado en las estructuras corporales retorna a la sonda que es nuevamente estimulada produciendo pequeños voltajes que son procesados de acuerdo a su intensidad y tiempo de retorno. La propiedad de la piezoelectricidad fue observada por primera vez por Pierre y Jacques Curie en 1881 estudiando la compresión del cuarzo.
Una variedad de ecografía es la basada en el efecto Doppler, en la que es posible visualizar las ondas de velocidad del flujo que atraviesa ciertas estructuras del cuerpo, en general vasos sanguíneos, y que son inaccesibles a la visión directa. La técnica permite determinar si el flujo se dirige hacia la sonda o si se aleja de ella, además de la velocidad de dicho flujo.
A diferencia de los procedimientos radiográficos o basados en la administración de radioisótopos, tanto en la resonancia magnética nuclear como en la ecografía no se emplea radiación ionizante.
El avance en la aplicación clínica de las radiaciones, mayoritariamente ionizantes, permite mejorar la calidad diagnóstica de la imagen con una reducción sensible de los niveles de dosis recibidos, así como en el tratamiento de enfermedades, tanto oncológicas, como derivadas de patologías funcionales como epilepsia, Parkinson o neuralgia del trigémino, mediante el uso de haces de radiación de alta energía focalizados hacia la lesión con una precisión sub-milimétrica, en base a la localización y posicionamiento conseguidos con técnicas como la radioterapia guiada por la imagen.
La puesta en funcionamiento previo a su uso clínico, así como las pruebas de control de calidad que periódicamente todas estas aplicaciones requieren para garantizar su adecuado uso, son competencia de la especialidad sanitaria conocida como Radiofísica Hospitalaria, creada por Real Decreto 220/1997 de 14 de febrero, con la finalidad de conferir un marco legal que regulase el acceso y las responsabilidades de los físicos dedicados al ámbito hospitalario.
Esta cuestión en España fue de enorme trascendencia debido a la ausencia de legislación en materia de Garantía de Calidad que permitiera tener un mayor control del estado de funcionamiento de los equipos emisores de radiación, especialmente de los dedicados a niveles de terapia, conduciendo a finales de los años 90 al establecimiento de los reales decretos correspondientes a la Garantía de Calidad en Radiodiagnóstico, Medicina Nuclear y Radioterapia.
Las recomendaciones proporcionadas por sociedades científicas nacionales e internacionales (como la Sociedad Española de Física Médica creada en 1974, o la American Association of Physicists in Medicine, en 1958), sirven de referencia para la elaboración de procedimientos de trabajo, además de proporcionar tolerancias y periodicidades, que facilitan la comparación del equipamiento entre diferentes centros.
Esta labor además de obligatoria, es necesaria y de gran relevancia para minimizar los riesgos derivados de una mala praxis, por desconocimiento u omisión, que pudieran comprometer la salud, e incluso la vida de los pacientes.


Este texto ha sido escrito por Daniel Zucca, físico especialista en Radiofísica Hospitalaria, adjunto al Servicio de Radiofísica y Protección Radiológica del Hospital Universitario HM Sanchinarro (Madrid). 

viernes, 11 de noviembre de 2016

El helio también liga, aunque haya que presionarlo




La industria se ha volcado en el estudio de materiales porosos, debido a la capacidad que tienen para atrapar moléculas en sus micro- o nano-cavidades, lo cual hace que actúen como filtros de un gran número de compuestos químicos. De entre estos, destaca el estudio de materiales que atrapan y almacenan CO2 para conseguir el objetivo de reducir sus emisiones. En un informe reciente del “Intergovernmental Panel on Climate Change” (IPCC) se concluyó que las emisiones de este gas deberían ser reducidas entre un 50 y un 80% antes del 2050 si se quiere evitar los efectos más dañinos del cambio climático. 
Por otro lado, el atrapamiento de otros elementos como por ejemplo los gases nobles puede no tener gran relevancia en la industria pero sí desde un punto de vista fundamental, ya que mediante su confinamiento se puede estudiar su química o reactividad (que bajo presión deja de ser nula). El atrapamiento de helio es interesante no solo para estudiar la química del gas noble más inerte sino también para intentar explicar la “paradoja del helio”, es decir, no solo la diferencia entre las cantidades encontradas de los diferentes isótopos de helio en la atmósfera y en materiales provenientes del manto terrestre, sino la diferencia entre la cantidad de helio encontrada en ambos sitios. En este sentido, hay una gran variedad de materiales que pueden ser usados como anfitriones de estos gases: clatratos, MOFs (estructuras metal-orgánicas), zeolitas y sólidos moleculares. De entre estos, destaca el estudio de las zeolitas, que fue nombrado por la prestigiosa revista Science1 como uno de los diez temas más relevantes en la investigación científica actual. Sin embargo, recientes avances en el estudio de otros materiales han igualado en importancia su investigación.

Figura 1. Estructura de la Arsenolita

La literatura científica ha mostrado que hay materiales como el sílice vítreo (óxido de silicio amorfo) que puede atrapar helio bajo presión.2-4 El problema con estos compuestos es que, al ser amorfos, la cantidad de helio que atrapan es aleatoria, dependiendo del número de cavidades que puedan alojarlo. Otro tipo de materiales, como las zeolitas, tienen en general numerosas cavidades con un tamaño muy grande, que hace que varios átomos de helio se dispongan dentro de estos huecos. En nuestro caso, buscamos un material capaz de confinar helio de forma ordenada, es decir, en una posición que se repita a lo largo de toda la estructura, y que haya solo un átomo en cada posición. Para ello, nos centramos en la fase cúbica del óxido de arsénico, cuyo mineral es conocido como arsenolita.5 Este compuesto tiene disposición molecular, es decir, tiene en su estructura pequeñas unidades (moleculares) muy bien definidas y separadas entre sí que se repiten a lo largo de todo el cristal. Estas unidades moleculares las forman cuatro arsénicos y seis oxígenos por lo que su estequiometría es As4O6Como sabemos, el oxígeno tiene valencia -2 (necesita dos electrones para estar electrónicamente completo) y el arsénico puede tener valencia como catión de +5 o +3 (puede aportar 3 o 5 electrones al enlace), dependiendo si los electrones de la capa 4s2 intervienen o no en la formación de enlace. Si estos no intervienen tenemos valencia +3 y ese par de electrones se queda de algún modo "desamparado",  o técnicamente hablando, formando un par de electrones solitario. En el caso de la arsenolita, el arsénico actúa con valencia +3 por lo que la pregunta es evidente: ¿dónde está el par electrónico solitario? Encontramos que estos pares ayudan a estabilizar las unidades moleculares, ya que al repelerse con los de las otras unidades, por estar orientados en direcciones contrapuestas y tener misma carga eléctrica, esto hace que dichas unidades estén más separadas, dando lugar a grandes cavidades donde se pueden alojar ciertos gases, entre ellos el helio.

Una vez conocida la estructura cristalina de la arsenolita, podemos rodear esta muestra de un ambiente de helio en una cavidad cerrada y someterlo a presión. Este elemento a partir de 3 GPa se introduce en las cavidades más anchas del compuesto a través de unos canales bien definidos, como se puede ver en la figura 2. ¿Cómo observamos este proceso? Medimos la relación volumen-presión (llamada ecuación de estado) de la arsenolita bajo diferentes condiciones. Para ello, se utilizan líquidos llamados medios no-penetrantes,  cuyas cadenas moleculares son muy largas y grandes, lo que imposibilita que se metan por los huecos de la estructura de la arsenolita, como aceite de silicona o una mezcla en proporción 16:3:1 de metanol-etanol-agua. Medimos la ecuación de estado y observamos que cuando la arsenolita está rodeada de helio, a partir de 3 GPa se produce un aumento del volumen de la estructura. Este salto solo puede explicarse al forzar la entrada en la estructura del helio. Pero, ¿se mete en todas las cavidades o solo en algunas?

Figura 2. Estructura de la arsenolita con el He en dos posiciones cristalográficas

El helio puede estar en tres posiciones cristalográficas como se muestra en la figura 2. La posición 16d (cavidades grandes), posición 16c (cavidades pequeñas) y posición 8a (dentro de la propia unidad molecular). Para resolver esta cuestión analizamos los volúmenes de las cavidades de forma indirecta, observando que el ensanchamiento del volumen solo se produce en una determinada posición cristalográfica, es decir, solo alrededor de un tipo de cavidades (las más grandes, posición 16d). Esto nos indica que el helio está ordenadamente confinado en la arsenolita, ya que solo se observa una perturbación de la cavidad en esa posición. 



Figura 3. Simulaciones teóricas de enlace no-covalente donde se observa la existencia de un punto crítico entre el helio y el arsénico, es decir, la formación de un enlace.


Queda por resolver un último punto: el helio,  ¿está atrapado o está formando un nuevo compuesto? Experimentalmente la respuesta a esta cuestión es difícil de resolver, y por ello se han llevado a cabo simulaciones teóricas para ver cómo al introducir helio en determinadas posiciones cristalográficas se ven afectadas las propiedades de la arsenolita. En este caso, no solo se observó que el helio cambiaba radicalmente las propiedades ópticas, estructurales, vibracionales y los rangos de estabilidad mecánica del mineral, pasando de ser un compuesto inestable a partir de 15 GPa (arsenolita pura) a ser mecánicamente estable a más de 35 GPa. También se comprobó mediante cálculos teóricos de índice no-covalente que el helio forma un enlace muy débil con el arsénico y que la intensidad de este enlace aumentaba conforme aumenta la presión. Por comparación con cálculos de este tipo realizados en este compuesto, se puede concluir que el tipo de enlace formado es de puente de hidrógeno.


A modo de resumen pues, se ha conseguido utilizar un mineral común para atrapar helio bajo presión en lugar de compuestos sintetizados y no presentes en la naturaleza, lo que podría indicar que el atrapamiento de helio es más habitual de lo esperado en las capas internas de la tierra. A su vez, este helio no se ha distribuido de forma aleatoria sino que está cristalográficamente ordenado. Y finalmente, se ha conseguido demostrar que el helio no es tan inerte como se creía al establecer enlaces con arsénico a muy baja presión (3 GPa), mientras que antes su reactividad solo se había conseguido a muy altas presiones (>100 GPa). Esto abre un nuevo campo de exploración y nuevas preguntas: ¿existen compuestos de helio estables en condiciones ambiente? ¿Se puede abrir una nueva rama de química de elementos inertes? ¿Se puede explicar la paradoja del helio con el atrapamiento de este elemento por materiales del manto terrestre? Todo ello se resolverá en los años venideros, llegando a considerar una nueva química de los elementos “inertes”.


Texto de Juan Ángel Sans (@tresse77).



[2] T. Sato, N. Funamori, and T. Yagi. Nature Comm. 2, 345 (2011). http://www.nature.com/articles/ncomms1343
[3] G. Shen, Q. Mei, V. B. Prakapenka, P. Lazor, S. Sinogeikin, Y. Meng, and C. Park. PNAS. 108, 6004 (2011). http://www.pnas.org/content/108/15/6004.full
[4] C. Weigel, A. Polian, M. Kint, B. Rufflé, M. Foret and R. Vacher. Phys. Rev. Lett. 109, 245504 (2012). http://journals.aps.org/prl/pdf/10.1103/PhysRevLett.109.245504
[5] J. A. Sans, F. J. Manjón, C. Popescu, V. P. Cuenca-Gotor, O. Gomis, A. Muñoz, P. Rodríguez-Hernández, J. Contreras-García, J. Pellicer-Porres, A. L. J. Pereira, D. Santamaría-Pérez, and A. Segura. Phys. Rev. B 93, 054102 (2016). http://journals.aps.org/prb/pdf/10.1103/PhysRevB.93.054102

miércoles, 2 de noviembre de 2016

Agujeros negros cuánticos.



Normalmente cuando se habla de física cuántica nos sitúan en escenarios microscópicos, donde las partículas pueden comportarse como ondas y nuestra intuición clásica deja de ser aplicable al cien por cien. Por otra parte, los agujeros negros se ven como objetos astrofísicos enormes que no tienen nada que ver con el mundo cuántico o microscópico. Sin embargo, por muy sorprendente que parezca, los agujeros negros plantean cuestiones de importancia fundamental debido a sus propiedades cuánticas. La charla que retransmitimos el pasado día 27 de octubre trataba justamente de esos temas. Aquí haré un resumen de lo que se contó allí e intentaré aclarar algunos puntos que quizá no quedaron del todo claros.

La evolución de estrellas muy masivas conduce a la formación de agujeros negros.
 
El mecanismo más conocido para entender cómo se forman los agujeros negros se basa en modelos de evolución estelar. Cuando una estrella muy masiva consume todo su combustible y las reacciones nucleares que la sustentan cesan, entonces la gravedad hace colapsar al sistema y se forma un agujero negro. Cuando esto ocurre, toda la materia cae hacia el interior y se forma una frontera, el llamado horizonte de sucesos, que no permite observar desde el exterior nada de lo que ocurre dentro. Esta superficie imaginaria es como una barrera que se puede cruzar sin problemas pero que no deja escapar ni siquiera a la luz. 


La curvatura generada por un agujero negro se hace infinita en el centro.
Por debajo del horizonte las cosas son muy aburridas: toda la materia está concentrada en un punto central con una densidad absurdamente alta, mientras que entre este punto y el horizonte solo hay vacío. El hecho de que la densidad en el centro sea infinita es una inconsistencia de la teoría. Los infinitos no existen en la naturaleza, así que habrá que mejorar la teoría para tratar de entender qué es lo que realmente ocurre en las proximidades de ese punto. Sin embargo, el horizonte se forma en una región en la que no hay razones para dudar de la teoría, por lo que su presencia pensamos que es real y sus implicaciones deben ser entendidas.

A principios de los años 70 del siglo pasado, Bekenstein y Hawking se dieron cuenta de que los horizontes de agujeros negros cumplían una serie de leyes similares a las que describen el comportamiento de sistemas con temperatura y presión, tales como una cafetera o un motor de explosión. Esta similitud, sin embargo, parecía algo puramente matemático, sin fundamento físico, pues los agujeros negros no pueden emitir radiación (solo absorberla) y, por tanto, deberían tener una temperatura igual al cero absoluto.

Creación de pares de partículas cerca de un agujero negro.
Pero la analogía era tan sólida que impulsó nuevas investigaciones, hasta que en 1974 Hawking concluyó que aunque clásicamente los agujeros negros no deberían emitir nada, cuánticamente sí podían hacerlo. Esta radiación cuántica, que es de tipo térmico, como la que emite un horno o un hierro muy caliente, hoy se conoce como radiación de Hawking. Al emitir radiación, el agujero negro pierde masa, por lo que poco a poco se irá evaporando.

La evaporación térmica del agujero negro tiene consecuencias muy profundas, pues es un tipo de radiación que no transporta ningún tipo de información cuántica en forma de correlaciones entre las partículas emitidas. Las correlaciones cuánticas surgen debido a que la radiación es el resultado de la creación de pares de partículas, con un elemento del par emitido al exterior y el otro cayendo al agujero negro. Como para un observador en el exterior no es posible acceder a la información que hay por debajo del horizonte, si el agujero negro se evapora completamente entonces las correlaciones cuánticas se habrán perdido. Y eso entra en conflicto con los principios de la teoría cuántica, que nos dice que la información puede transformarse y enredarse pero nunca destruirse. La evaporación térmica permitiría la evolución del sistema desde un estado cuántico puro inicial a un estado de radiación térmico sin ningún tipo de correlaciones cuánticas.

En el vacío cuántico se crean y destruyen instantáneamente pares de partículas. Si uno de los elementos del par cae dentro del horizonte, éste ya no puede observarse y las correlaciones cuánticas con su "media naranja" en el exterior se pierden. Las partículas emitidas de esta manera están totalmente descorrelacionadas entre sí y no transportan información.
Esta es una situación paradójica, pues el agujero negro se evapora por efectos cuánticos pero esa evaporación ¡¡¡está en conflicto con las leyes de la teoría cuántica!!!  Hay que notar que esto causa un conflicto directo entre la teoría cuántica y la teoría de la gravedad de Einstein. La teoría de Einstein predice que la formación de agujeros negros es inevitable, pero la posterior evaporación sería incompatible con la teoría cuántica. La visión general en la comunidad científica es que la resolución de este conflicto aportaría una vía esencial para construir una teoría cuántica de la gravedad.

Desde la propuesta original de Hawking ha habido mucho movimiento para tratar de demostrar o justificar que Hawking se equivocaba y que la evaporación no es incompatible con los principios cuánticos. Así, se argumenta que “de alguna manera”, la información cuántica debería poder recuperarse por medio de correlaciones entre partículas emitidas en distintos momentos de la evaporación. La teoría de cuerdas y la llamada “correspondencia gravedad-gauge” han ayudado a aceptar esta posibilidad, pues las teorías de gravedad en 4 dimensiones estarían relacionadas con teorías sin gravedad en 3 dimensiones en las que las leyes cuánticas serían completamente válidas.
Por tanto, aunque el mecanismo preciso para recuperar la información no se conozca en detalle, habría razones para creer que el razonamiento de Hawking debe estar equivocado.

Gracias a avances en el campo de la información cuántica, en el año 2012 se puso de manifiesto otro conflicto entre la teoría de la gravedad de Einstein y los principios cuánticos. Resulta que los pares de partículas responsables de la radiación Hawking están máximamente entrelazados y eso impide que la partícula saliente pueda entrelazarse con otras salientes y así transportar al exterior información cuántica. El entrelazamiento máximo es como el matrimonio, en el sentido de que sólo puede darse entre dos elementos y para romperlo hace falta energía. Esto implica que para que dos partículas salientes, correspondientes a dos pares creados cerca del horizonte, pudieran entrelazarse entre ellas, sería necesario que antes se rompieran sus respectivos “matrimonios” (entrelazamientos máximos). Esa ruptura liberaría mucha energía cerca del horizonte, lo que generaría una especie de “muro de fuego” (firewall en inglés) que afectaría a cualquiera que se atreviese a cruzar el horizonte.

La existencia de un muro de fuego es un requisito de la teoría cuántica para poder transferir las correlaciones internas al exterior del agujero negro, pero está en conflicto con el principio de equivalencia de Einstein. Este principio nos dice que los efectos de la gravedad externa no son visibles para un observador que cae libremente, por lo que cruzar el horizonte de sucesos no sería ningún problema. El muro de fuego sería, por tanto, un efecto cuántico incompatible con el principio de equivalencia.

Lejos de ser la última palabra, poco después de esta propuesta surgió otra que interpretaba el entrelazamiento cuántico en términos de agujeros de gusano. En cierto modo, dos partículas entrelazadas cuánticamente podrían interpretarse como dos manifestaciones de una única entidad: el agujero de gusano. Las partículas de radiación Hawking estarían de esta forma conectadas con el interior del agujero negro a través de múltiples agujeros de gusano y, al interaccionar estos entre sí dentro del agujero negro, podrían transferir entrelazamiento al exterior.

Todas estas propuestas son altamente especulativas y heurísticas, proporcionando sólo soluciones parciales al problema y generando muchos interrogantes nuevos. El problema de la pérdida de información cuántica, por tanto, sigue abierto y está aún lejos de ser resuelto convincentemente.

¿Qué implica la constante de Planck en estas fórmulas?
En la charla también hablamos de la entropía de los agujeros negros y de cómo se ha intentado dar una justificación a su dependencia con el área del horizonte desde distintas teorías. Los primeros logros se cosecharon a finales de los años 90 desde la teoría de cuerdas. Teniendo en cuenta que el área del horizonte depende de la masa, la carga (eléctrica o de otro tipo) y del momento angular del agujero negro (cómo gira), la entropía debería estar relacionada con las distintas configuraciones de cuerdas y branas que dan lugar a cada conjunto de masas, cargas y momentos angulares. Una vez definida la estrategia que permitió hacer el primer cálculo en un cierto tipo de agujero negro en cinco dimensiones, se consiguió extender a otros tipos de agujeros negros con gran éxito, verificándose siempre la ley del área. 

Desde la teoría cuántica de lazos también se ha conseguido dar una descripción microscópica de esta entropía tanto para agujeros negros grandes como para los más pequeños. En los microscópicos, el contaje exacto de microestados lo llevaron a cabo unos estudiantes de doctorado de la Universidad de Valencia (Iván Agulló, Jacobo Díaz Polo y Enrique Fernández Borja) en colaboración con otros investigadores del CSIC (F. Barbero y E. Sánchez) allá por el año 2008.

Aunque los caminos para calcular las configuraciones microscópicas asociadas a los distintos agujeros negros son tortuosos y radicalmente diferentes en las distintas teorías estudiadas, todas ellas han terminado verificando la ley del área de Bekenstein y Hawking. El por qué de este resultado tan universal a pesar de las grandes diferencias entre las distintas descripciones es, a mi entender, un misterio aún por comprender.

Por último, la charla se cerró hablando de agujeros negros en laboratorio y cómo se puede estudiar la creación de pares de partículas a partir del vacío cuando se forma un horizonte acústico en condensados de Bose-Einstein.

La velocidad del agua es igual a la del pez en la línea de puntos.
El primer paso es entender que utilizando un fluido en movimiento es posible generar regiones de las que el sonido no puede escapar (horizonte acústico). “Solo” hace falta conseguir que la velocidad de propagación del sonido en el fluido sea menor que la velocidad a la que se desplaza el líquido. Si este fluido tiene propiedades cuánticas, como es el caso de los condensados de Bose-Einstein, entonces las ondas acústicas también están cuantizadas. A estas ondas acústicas cuánticas se les llama “fonones”, en analogía con los “fotones” de las ondas de luz. Los fonones representan fluctuaciones en la densidad del fluido cuántico (el condensado de Bose-Einstein), así como las ondas acústicas representan variaciones de densidad en el aire o el agua.

Cuando un horizonte acústico se forma en un condensado de Bose-Einstein, la teoría cuántica nos dice que deberían generarse pares de fonones análogos a los que constituyen la radiación Hawking en los agujeros negros. Uno de los elementos del par sería arrastrado por el fluido al interior de la región supersónica (donde el fluido va más rápido que el sonido, que es el interior del agujero negro acústico), mientras que el otro escaparía como radiación Hawking de tipo térmico propagándose por la región subsónica (exterior del agujero negro).

Para verificar esa predicción, haría falta detectar esa radiación sonora saliente y confirmar que tiene las propiedades correctas. Sin embargo, la temperatura asociada a esa radiación es unas 10 veces inferior a la temperatura del fluido, lo que dificulta grandemente su detección directa. Para poder confirmar su presencia, hay que ingeniar algún sistema alternativo a la medida directa.

En este sentido, hace unos años se propuso medir directamente las correlaciones entre las fluctuaciones de densidad  a ambos lados del horizonte acústico. Dado que la radiación Hawking genera pares de partículas y en el laboratorio nada nos impide hacer mediciones a ambos lados de este horizonte, si se miden esas correlaciones y sus propiedades son compatibles con las predichas por la teoría, tendríamos una verificación experimental de este fenómeno predicho por Hawking en un contexto completamente diferente.

En agosto de este año 2016, la revista Nature publicó un artículo de Jeff Steinhauer en el que se anunciaba la detección de radiación Hawking mediante el estudio de correlaciones a ambos lados del horizonte. Aunque el artículo ha recibido algunas críticas (como era de esperar en estos casos), las respuestas del autor son bastante convincentes. Por tanto, podemos decir con bastante seguridad que el fenómeno de creación de pares correlacionados en presencia de horizontes es una realidad física.
Las implicaciones que esto pueda tener para los agujeros negros de origen astrofísico son causa de muchas discusiones y debates dentro de la comunidad. Quizás lo más importante sea que un descubrimiento en el ámbito de agujeros negros astrofísicos haya motivado investigaciones experimentales en el contexto de la hidrodinámica cuántica. La diversión y el debate están servidos para los próximos años.


Enlaces relacionados:


Muros de fuego en el horizonte: https://en.wikipedia.org/wiki/Firewall_(physics)

Radiación de Hawking en condensados de Bose-Einstein: