jueves, 22 de diciembre de 2016

Premios Breakthrough 2017



Imagen 1: Strominger, Polchinski y Vafa (izq a der).

A principio de mes se dieron a conocer los galardonados de los Premios Breakthrough 2017. En la categoría de Física Fundamental, los afortunados son tres de los más importantes físicos teóricos especialistas en teoría de cuerdas: Joe Polchinski, Andy Strominger y Cumrun Vafa (Imagen 1). Polchinski trabaja en el Kavli Institute for Theoretical Physics en Santa Bárbara (California), y Strominger y Vafa en el Center for the Fundamental Laws of Nature de la Universidad de Harvard. ¡Enhorabuena a los premiados!

Los Premios Breakthrough fueron instituidos por Yuri Milner hace cuatro años, un emprendedor millonario de origen ruso afincado en la Bahía de San Francisco y físico de formación. Completamente desconocido en el mundillo de la física teórica hasta 2012, su nombre saltó del completo anonimato a celebrity físico-teórica en verano de ese año cuando, con la comunidad científica desprevenida, se dieron a conocer unos nuevos galardones dotados de tres millones de dólares, tres, cada uno. Esta cuantía se anunció junto con los premiados de ese año, todos ellos reconocidos físicos teóricos asociados en mayor o menor medida con la teoría de cuerdas. De un plumazo, se premió a la plana mayor “cuerdera” del Instituto de Estudios Avanzados (IAS) de Princeton (Nima Arkani-Hamed, Juan Maldacena, Nathan Seiberg y Edward Witten), además de a los también famosos en esta área Alan Guth (MIT), Alexei Kitaev (por entonces de Caltech, ahora de Santa Bárbara), Maxim Kontsevich (IHES), Andrei Linde (Stanford) y Ashoke Sen (Harish-Chandra). Un plantel para quitarse el sombrero.

Estos nuevos premios no dejaron a nadie indiferente. El asunto causó mucho revuelo y dotó, afortunadamente, de considerable vidilla a los, casi únicos por otro lado, eventos sociales que frecuentamos los físicos: la hora de la comida, el cafelito posterior y las cenas de seminarios, workshops y congresos. Las opiniones variaban de un extremo a otro. Unos sostenían que aquello era un escándalo, una intromisión en la noble tarea investigadora que ha de salvaguardarse de semejantes sobornos. Añadían estos que, si de dar dinero a fondo perdido se trataba, mejor usar tan ingentes cantidades en crear un enorme número de becas de doctorado y post-doctorado en física teórica. Otros, sin embargo, eran de la opinión de que aquello estaba muy bien: la teoría de cuerdas llevaba siendo estudiada desde los años setenta y ya era hora de que se reconociera mediante la institución de un galardón, sólidamente respaldado a golpe de talonario.

Otras peculiaridades del premio alimentaban aún más la polémica. Por ejemplo, la gala de concesión de los premios, televisada en EEUU por Discovery Channel aquel año, se concibió con un formato al estilo de Hollywood, intencionadamente diseñado para levantar comparaciones con la ceremonia de los Oscars. Por ejemplo, este año como en alguna otra edición previa, la gala fue presentada por Morgan Freeman: un aire californiano diametralmente alejado de la vetusta pompa y circunstancia escandinava que tanto gusta en los ambientes académicos. Una crítica más seria a estos premios venía del hecho de que no quedaba muy claro cuáles eran las bases o el patrón de concesión.

En mi modesta opinión, creo que, con todos sus posibles defectos, estos premios son algo positivo. Creo que Milner lo hace por una vocación filantrópica, muy enraizada en la cultura empresarial estadounidense y, en especial, de Silicon Valley (véase el caso de Bill Gates), en gratitud por su formación en física. No creo que la integridad de investigadores e investigaciones se vea comprometida. También creo que era necesario un galardón que premie investigación puntera en las áreas más especulativas de la física teórica. En particular, este premio viene a llenar el hueco que el Nobel, con su (también razonable, por otro lado) requisito sobre validación experimental de la investigación premiada, no es capaz de llenar. Recuerdo una discusión el año pasado, durante una cena de seminario en Henrietta’s Table, el restaurante que suele acoger la cena de seminario de física teórica de Harvard, sobre una interesante idea. Entre los presentes, se encontraban galardonados ya entonces con el Breakthrough, y otros que lo serían posteriormente. Se habló de que sería buena idea trocear el premio y concederlo a jóvenes promesas. En realidad, el premio New Horizons de la misma organización es una especie de Breakthrough junior que va en esa línea. También se ha rumoreado que Ashoke Sen decidió donar el premio para becas de formación, pero no tengo constancia directa de ello. Es un gesto que honraría a Sen o cualquiera de los premiados desde 2012 que decidiera dar ese destino al premio. Soy también de la opinión que los premiados no se deben ver en la obligación moral de dar esa salida al premio: con la excepción de los portavoces mencionados más abajo, es su premio, bien merecido por lo que me consta, y están en perfecto derecho de darle un uso personal a ese dinero.

En todo caso, el premio se ha venido otorgando anualmente desde 2012. Desde 2013, cuando Milner se asoció con los indudablemente más mediáticos Sergey Brin de Google y Mark Zuckerberg de Facebook, se ha venido concediendo también en las categorías de Biología y Matemáticas. Es cierto que, en ocasiones, se ha hecho de manera algo curiosa. Por ejemplo, en 2013 se concedió bien merecidamente al cuerdero Alexander Polyakov, también de Princeton (de la Universidad, no confundir con el IAS mencionado arriba). Hasta ahí todo bien. Pero en 2013 también se concedió un premio especial a los científicos portavoces de las colaboraciones experimentales de CERN que descubrieron el bosón de Higgs ese año. Parece que les entró prisa por premiarlos, porque en vez de dar un premio especial los podrían haber premiado en la edición siguiente. Ni qué decir tiene que también fue peculiar, y no estuvo exento de polémica, premiar a los portavoces de turno de las colaboraciones, pues son cargos político-administrativos temporales. En 2013 Stephen Hawking fue también galardonado (por radiación de agujeros negros, entre otras cosas, de la que hemos hablado aquí), muy meritoriamente, aunque de manera especial, en vez de ordinaria.

El año pasado sucedió algo similar. Se premió de forma ordinaria a ciertos físicos teóricos (de neutrinos en vez de cuerdas, supongo que para variar), pero cuando estaba ya todo el pescado vendido en lo que se refiere a la determinación de los agraciados, se anunció el bombazo científico del año: el descubrimiento de ondas gravitacionales. Y entonces, como si nada, se creó un premio especial para los teóricos del asunto: Ronald Drever, Kip Thorne y Rainer Weiss. La comparación con el premio especial de 2013 deja, por cierto, algunos interrogantes. ¿Se premiará también, de forma especial u ordinaria, a los teóricos del Higgs todavía vivos (Englert, Hagen, Higgs)? ¿Se premiará a representantes del experimento LIGO, que detectó las ondas gravitacionales? 

Y así llegamos al último premio Breakthrough de Física Fundamental, anunciado a principios de diciembre, para Polchinski, Strominger y Vafa. Estaba cantado que más pronto que tarde lo recibirían, ya que sus nombres eran sonadas omisiones en la lista de insignes teóricos de cuerdas galardonados hasta la fecha. Como en los casos anteriores, y a mi modo de ver, esta es una concesión muy merecida. Los tres son destacados físicos que han realizado contribuciones sobresalientes a la teoría de cuerdas, a la teoría de agujeros negros y, en general, a la física teórica. Es más, Polchinski, Strominger y Vafa son algunos de los que fundamentaron en su día los mismísimos principios de la teoría de cuerdas. Y lo quizá más notable: ninguno de los tres se ha dedicado a vivir de rentas desde aquellas contribuciones fundacionales. A lo largo de todos estos años, se han mantenido tremendamente activos produciendo investigación puntera que ha seguido marcando la pauta a nivel mundial hasta día de hoy. Strominger, por ejemplo, sacó un artículo hace unas pocas semanas con Stephen Hawking y Malcolm Perry, continuación de otro previo, donde se hacen progresos acerca de uno de los grandes enigmas de física de agujeros negros: la paradoja de la información. No me puedo resistir aquí a señalar humildemente que, a fecha de este post, el último artículo de Strominger tiene a un servidor como coautor. Es para mí un gran honor.


Imagen 2: Jefferson Laboratoy. Departamento Física Teórica Harvard.

Ya hemos hablado en este blog de una de las contribuciones recientes de Polchinski a la física de agujeros negros: los firewalls, o muros de fuego. Hablemos pues, brevemente, de una de las más célebres contribuciones de Strominger y Vafa: su cálculo conjunto de la entropía de agujeros negros usando teoría de cuerdas.

Desde el trabajo teórico de Bekenstein y Hawking en los setenta, sabemos que los agujeros negros se comportan como sistemas termodinámicos: tienen temperatura y variables como energía y entropía sujetas a las leyes de la termodinámica, las famosas primera y segunda leyes. La entropía, por ejemplo, proporciona una medida del desorden del sistema en cuestión. Bekenstein y Hawking establecieron que los agujeros negros tienen entropía, y dieron una expresión para esa entropía basada en criterios termodinámicos.

Los fenómenos termodinámicos son macroscópicos, es decir, debidos a la aglomeración de muchas partículas, o componentes elementales. No tiene sentido pues hablar de transmisión de calor entre partículas elementales a nivel individual. Ese y otros fenómenos solo surgen debido a la acumulación de grandes cantidades de material. Uno puede usar la termodinámica para describir, aprovechar y explotar, por ejemplo, procesos industriales desde la más completa ignorancia de lo que hacen las partículas elementales a nivel individual: solo importa el comportamiento colectivo. Ahora bien, desde el punto de vista científico, es muy importante tener una teoría fundamental que explique microscópicamente el comportamiento macroscópico. Es decir, es importante tener una descripción básica y fundamental de la dinámica de los componentes elementales, tal que permita obtener mediante métodos estadísticos los comportamientos termodinámicos observados a escalas macroscópicas. A tal descripción microscópica se la suele llamar “de primeros principios”.

Uno de los mayores logros de la física del siglo XIX fue obtener una descripción microscópica, de primeros principios, de muchos fenómenos termodinámicos. Eso conseguía, por ejemplo, la teoría cinética de gases. Así pues, en el momento en que Bekenstein y Hawking determinaron que los agujeros negros son sistemas termodinámicos, pusieron a estos sistemas en la misma tesitura que a los gases en el siglo XIX: se hacía necesario encontrar el equivalente a la teoría cinética, es decir, una descripción de primeros principios de la física de agujeros negros. ¿Cuál sería, pues, la teoría que describiera microscópicamente la entropía de los agujeros negros?

Como ya hemos comentado en este blog, los agujeros negros son, también, sistemas cuánticos. Por ese motivo, la teoría microscópica llamada a reproducir sus propiedades termodinámicas ha de ser, necesariamente, la teoría cuántica de la gravedad. Ahora bien, uno de los grandes retos de la física teórica es, precisamente, establecer cuál es la teoría que rige el régimen cuántico de la gravedad. La teoría de cuerdas es una firme candidata a ser justamente esa teoría. En 1996, Strominger y Vafa emplearon la teoría de cuerdas para realizar un cálculo microscópico de la entropía de ciertos agujeros negros (ver aquí), ¡obteniendo exactamente el mismo resultado que Bekenstein y Hawking! Así pues, Strominger y Vafa reprodujeron por primeros principios, con teoría de cuerdas, la entropía termodinámica del tipo concreto de agujero negro considerado. Además de un gran éxito en sí mismo, este resultado supuso un gran espaldarazo a la teoría de cuerdas como candidata a teoría cuántica de la gravedad. Este resultado de Strominger y Vafa ha sido sin duda determinante para la obtención del Premio Breakthrough 2017, por sus “avances transformadores en teoría cuántica de campos, teoría de cuerdas y gravedad cuántica”.


Imagen 3: Kalvi Institute for Theoretical Physics. Santa Bárbara.

Concluyamos mencionando a los galardonados con el Premio New Horizons 2017, la versión junior del Breakthrough como hemos indicado más arriba. Son Asimina Arvanitaki (de Perimeter Institute), Peter Graham (Stanford), Surjeet Rajendran (Berkeley) y Frans Pretorius (Princeton), además de los cuerderos Simone Giombi (Princeton) y Xi Yin, con el que he tenido el gusto de coincidir en Harvard durante mi etapa allí en los últimos años.


De nuevo, ¡enhorabuena!



Texto de Óscar Varela, Doctor en Físicas, Assistant Professor en Utah State University, y Senior Scientist en Max Planck Insitut für Gravitationsphysik, Postdam.


lunes, 19 de diciembre de 2016

Alba: la luz sincrotrón española.








En marzo de 2010, en Cerdanyola del Vallés (Barcelona), se inaugura el sincrotrón ALBA. Habiendo costado unos 200 millones de Euros, es sin duda una de las instalaciones científicas más importantes de España. No obstante, mucha gente no sabe que España tiene esta instalación puntera ni para qué sirve, esperemos aclararlo un poco.

El sincrotrón es básicamente una instalación que utiliza electrones acelerados para generar rayos X, que son utilizados para diversos tipos de investigaciones. Esta generación de rayos X se fundamenta en el movimiento de los electrones: cuando un electrón se mueve y cambia la dirección de su movimiento, emite energía.

En una visión más general, teniendo en cuenta efectos relativistas, uno se puede imaginar a los electrones viajando a velocidades cercanas a la de la luz (c = 3x108 m/s) y al ser forzados a cambiar su movimiento bajo la acción de campos magnéticos, se produce una emisión de luz con unas propiedades características, la llamada radiación sincrotrón. Esta radiación es producida en una instalación sincrotrón de tamaño aproximado a cuatro campos de futbol. Aquí, los electrones son acelerados a una energía extremadamente alta y se les hace cambiar de dirección periódicamente para conseguir la emisión de este singular tipo de luz.

¿De dónde proviene la luz del sincrotrón? Básicamente del movimiento de los electrones. Los electrones son generados en un cañón de haz electrónico por emisión termiónica desde un cátodo de wolframio calentado, de la misma forma que se hace en un tubo de rayos X o en un antiguo televisor de rayos catódicos. Una vez generado, este haz es acelerado en un acelerador lineal (linac1) mediante campos eléctricos hasta una energía de alrededor de 100 MeV. En este punto, el haz es transferido al anillo intensificador de señal o booster, donde se intensifica a energías desde millones (106) a giga (109) electrón voltios (GeV) con la ayuda de imanes muy potentes (¡2000 veces más intensos que el campo magnético de la Tierra!) y campos eléctricos. El sincrotrón español (ALBA), que se puede ver en la figura 1, tiene una energía de 3 GeV. En este punto, el haz de electrones es enviado al anillo de almacenamiento donde los campos magnéticos lo mantienen confinado. Para hacernos una idea, los electrones se mantienen girando alrededor de una circunferencia que en el caso de ALBA tiene 269 metros. Este ciclo es repetido 3 veces por segundo.

Figura 1.

                           

Durante el tiempo que el haz está en el anillo de almacenamiento, este haz está gradualmente decayendo debido a las colisiones de los electrones con moléculas de gas residual y con otros electrones. Para minimizar estas pérdidas, el haz transita por dentro de una cámara circular a ultra-alto vacío, a alrededor de 10-10 milibares, equivalente a la presión atmosférica en la Luna. Sin embargo, incluso en estas condiciones el haz necesita ser recargado una o varias veces al día para que su intensidad no decrezca tanto.

El anillo de almacenamiento tiene que ser visto como una estructura consistente en secciones arqueadas, donde actúan los imanes desviadores de dipolo (BM) y secciones rectas, donde se disponen unos dispositivos de inserción (ID: onduladores y wigglers) como se ve en la figura 1. Los BMs son usados para desviar los electrones a lo largo de las secciones arqueadas y producen una radiación que es menos intensa en términos de brillo a la producida por los IDs.

La aparición de estos últimos (IDs) son los que han definido las fuentes de radiación sincrotrón de tercera generación, tales como ALBA. Estas fuentes están diseñadas para obtener un flujo óptimo con el máximo brillo. De hecho, estas dos propiedades indican la calidad de una instalación sincrotrón. El flujo espectral está definido por el número de fotones por segundo y por ancho de banda (~ 0.1%) atravesando un área definida y se explota como haz blanco de rayos X (es decir, no monocromático sino con todas las longitudes de onda mezcladas), aquí es más importante la intensidad del haz que su tamaño. Para focalizar el haz en un foco de tamaño reducido se explota otra de las cualidades de los sincrotrones, el brillo del haz2. Este último parámetro, el brillo, establece el foco más pequeño al que se puede llegar con el haz de rayos X y determina cómo está distribuido el flujo tanto angular como espacialmente. Así podemos definir el brillo como la cantidad de potencia por unidad de frecuencia, área y ángulo sólido.

Hay un continuo desarrollo de elementos ópticos que optimizan estas propiedades del haz sincrotrón en las llamadas fuentes de tercera generación. Sin embargo, hay que mencionar que existen fuentes de cuarta generación ya disponibles que están basadas en láseres de electrones libres (FELs). Estas nuevas instalaciones son capaces de producir pulsos de luz coherente muy cortos y con un pico muy alto de intensidad y brillo3.

Figura 2.
                                    

El destino final de la radiación sincrotrón es la línea, que está posicionada tangencialmente al anillo de almacenamiento de forma que se captura la luz de sincrotrón (fotones del haz de rayos X) procedente del anillo. Para los usuarios, la línea es la parte de la instalación sincrotrón que despierta mayor interés. La primera parte que se encuentra el haz de rayos X es la cabaña óptica, donde los fotones son entregados por los imanes del anillo. Esta sección incorpora varios dispositivos como filtros, atenuadores, espejos y monocromadores que se usan para enfocar y seleccionar la longitud de onda (energía) deseada para cada experimento. Éstos se realizan en la segunda estación de la línea llamada estación final o cabaña experimental. La mayoría de estos experimentos están alojados dentro de un recinto que apantalla la radiación, para que los trabajadores de la línea y los usuarios estén protegidos de los rayos X nocivos. Debido a que los científicos no pueden entran en las cabañas durante la recolección de los datos, el equipamiento está controlado remotamente en la cabaña de control vía motores y dispositivos robóticos.

La radiación sincrotrón es extremadamente intensa (cientos de veces más intensa que la de un tubo de rayos X que se pueda encontrar en un laboratorio convencional) y cubre un amplio rango de energías, desde el infrarrojo y ultravioleta pasando por el visible hasta la región del espectro electromagnético perteneciente a los rayos X duros y blandos.

Las técnicas de sincrotrón también abarcan un gran número de aplicaciones desde las biológicas a los materiales industriales, como se muestra en la figura 1. El amplio rango de instrumentos y longitudes de onda disponibles permiten determinar el tamaño, la forma de los materiales y elucidar sus estructuras. Desde el punto de vista biológico se pueden resolver estructuras de proteínas y virus (ver el ejemplo de XALOC mostrado en la figura 1), obtener imágenes y mapas de cómo se pueden invertir las alteraciones producidas en células infectadas mediante ciertos fármacos (MISTRAL) e investigar largos acoplamientos moleculares como polímeros, proteínas, fibras y otras soluciones biológicas (ver NCD). Químicamente, la estructura de materiales masivos puede ser estudiada mediante difracción y espectroscopía de absorción tanto en condiciones ambiente como en condiciones extremas de presión y temperatura (MSPD y CLAESS). Las propiedades avanzadas de la luz sincrotrón en términos de precisión, especificidad y oportunidad comparada con el laboratorio convencional lidian bien con ese tipo de estudios avanzados. Actualmente, es posible desarrollar experimentos usando la luz sincrotrón (MSPD) en materiales sujetos a un amplio rango de presiones y temperaturas, excediendo la condiciones encontradas en la Tierra (363 GPa – más de 3 milliones de veces la presión atmosférica) y alcanzadas por otros planetas (~ 1TPa)4.

Figura 3.
                                           

Los estudios experimentales en materiales 2D como capas delgadas, superficies e interfases también se pueden realizar mediante la radiación sincrotrón. De esta forma, se puede ahondar en el conocimiento y obtener información a una profundidad de unos pocos nanómetros para materiales magnéticos (BOREAS) o incluso seguir reacciones químicas en la escala atómica en diferentes catalizadores (CIRCE). Un estudio reciente describió la coexistencia de magnetismo y superconductividad en superconductores de alta temperatura basados en cupratos6, contrario a la creencia común que dichas propiedades son fenómenos excluyentes.

El uso de la radiación sincrotrón es una herramienta enormemente aprovechable en la que el conocimiento de la escala atómica puede ser obtenido de manera relativamente sencilla gracias al gran número de técnicas que permite. La combinación de investigación y radiación sincrotrón ha abierto nuevas perspectivas en el estudio de la naturaleza de los materiales antes mencionados con resultados en un amplio número de campos.





Esta entrada está escrita por Catalin Popescu, investigador en la línea MSPD de Alba.



Alba-Cells, Spanish synchrotron website. https://www.cells.es/en/accelerators/operations
2 P. Willmott, An introduction to synchrotron radiation (John Wiley and Sons Press, UK, 2011).
3 S. Mobilio, F. Boscherini, C. Menenghini, Synchrotron Radiation – Basics, Methods and Applications (Springer Press, Berlin, 2015).
4 Alba news: researchers probe thallium under extreme conditions and the reference therein https://www.cells.es/en/media/news/researchers-probe-thallium-under-extreme-conditions
5 T. S. Duffy, Mineralogy at the extremes, Nature 451, 06584 (2008). http://www.nature.com/nature/journal/v451/n7176/full/nature06584.html
6 Alba news: the hidden mechanism in high temperature superconductors and the reference therein https://www.cells.es/en/media/news/the-hidden-magnetism-in-high-temperature-superconductors


lunes, 5 de diciembre de 2016

Unificación II: El Modelo Estándar





Imágen 1: Glashow, Salam y Weinberg en la entrega Premio Nobel de 1979

Como ya hemos contado en este blog, en la actualidad nos son conocidas cuatro interacciones fundamentales: la gravitación, el electromagnetismo, la interacción nuclear débil y la interacción nuclear fuerte. A escalas cosmológicas, la primera de ellas viene descrita por la teoría de la relatividad general de Einstein. Las tres restantes se enmarcan en una teoría que, desde los años 70, se conoce como el Modelo Estándar de la física de partículas o, simplemente, Modelo Estándar. Es esta ultima teoría la que rige los procesos sub-atómicos.

Una de las enseñanzas de la relatividad general es que cualquier cuerpo o partícula dotado de energía, con independencia de que tenga masa o no, genera atracción gravitatoria. La interacción electromagnética, sin embargo, solo son capaces de sentirla las partículas dotadas de cierta propiedad: tener carga eléctrica. Masa, energía y carga eléctrica nos son conceptos cotidianos. En particular, todos recordamos aquello de que cargas eléctricas opuestas se atraen, e idénticas se repelen. También existen partículas desposeídas de carga eléctrica, completamente invisibles, pues, a la interacción electromagnética. A las partículas que sienten la interacción electromagnética las llamamos cargadas, y a las que no lo hacen, neutras.
Las interacciones débiles y fuertes son, en ese sentido, similares al electromagnetismo: hay partículas que sienten esas interacciones y otras que no lo hacen. A las partículas que sienten las interacciones débiles (y en algunos casos, también la electromagnética), se les denomina leptones. Las partículas “cargadas” respecto de la interacción fuerte se llaman hadrones.

La gravitación es la única interacción verdaderamente universal. Lo es no solo en el sentido restringido de ser la fuerza que gobierna el universo a gran escala. La gravitación es universal porque todo en este mundo está sometido a ella, a diferencia de las otras tres interacciones fundamentales, que solo actúan sobre ciertas partículas.

Ahora bien, ser universal no quiere decir que necesariamente lleve la voz cantante: la intensidad de unas interacciones respecto de otras es lo que realmente domina los procesos físicos a una escala dada. Por ejemplo, a escalas cosmológicas, la gravitación domina sobre el resto de interacciones. Pero a escalas sub-atómicas, la intensidad de la gravitación es mínima comparada con la de las tres interacciones del Modelo Estándar. Los efectos gravitatorios en la física de partículas elementales son completamente irrelevantes.

Es por esta razón que el Modelo Estándar, aunque excluya la gravitación, es una teoría perfectamente consistente en sí misma. No solo eso: se suele decir que, junto con la relatividad general, el Modelo Estándar es la construcción científica, verificada experimentalmente, más sofisticada y precisa que el ser humano ha logrado hasta ahora. He añadido la cualificación acerca de la verificación experimental para diferenciar el Modelo Estándar de otras teorías, como la teoría de cuerdas, que muestran incluso mayor sofisticación pero no gozan de marchamo experimental. Al menos hasta la fecha.

El Modelo Estándar consta de tres componentes íntimamente relacionados. El primero agrupa las partículas elementales de las que venimos hablando de manera informal. El segundo componente engloba las tres interacciones fundamentales que también hemos señalado. Y el tercer componente es el llamado bosón de Higgs, recientemente descubierto en CERN, el Laboratorio Europeo de Física de Partículas. Describamos pues en detalle cada uno de estos sectores.

La coletilla de elemental hace referencia a que las partículas en cuestión no tienen estructura interna: la teoría realmente las representa como puntos en el espacio-tiempo. Este criterio solo lo han resistido algunas de las partículas que se conocen desde hace mucho tiempo y otras desde hace no tanto. A medida que avanzaban las investigaciones sobre la estructura de la materia a escalas mas pequeñas, algunas partículas que se pensaban elementales han dejado de serlo, con la definición dada arriba. Por ejemplo, hace cien años se descubrió que el átomo estaba formado por electrones que, en cierto modo, orbitaban alrededor de un núcleo. Si bien el electrón se ha mostrado elemental hasta nuestros días, así no lo ha hecho el núcleo. Efectivamente, posteriormente se descubrió que este estaba formado por protones y neutrones, colectivamente llamados nucleones por ser estos los componentes del núcleo atómico. Incluso los nucleones han caído hoy en día del pedestal de la elementariedad: en la actualidad sabemos que están a su vez formados por otros componentes llamados quarks. De estos sí se piensa que son elementales, pero con semejantes antecedentes es difícil poner la mano en el fuego.


La elementariedad de muchas otras partículas, no solo la de los nucleones, ha sido redefinida con el tiempo. Hacia mediados del siglo XX, tecnología cada vez más desarrollada permitía descubrir muchas partículas nuevas. Tantas había que se hacía necesario unos principios básicos que pusieran orden y permitieran una clasificación de los resultados. Es decir, se hizo necesario el equivalente de lo que en química en el siglo anterior había supuesto el descubrimiento de la tabla periódica de los elementos.



Imagen 2: Modelo Estándar

El Modelo Estándar supone esa clasificación (Imagen 2). Hay dos tipos de partículas elementales en el Modelo Estándar: leptones y quarks. Hay seis leptones: el electrón que ya hemos mencionado, el muón y el tau, ambos versiones masivas e inestables del electrón; a su vez, estas tres partículas vienen acompañadas de otras tres llamadas neutrinos. Seis, pues, en total. Como ya hemos señalado arriba, los leptones sienten la interacción débil y algunos de ellos, los leptones cargados, también la electromagnética. El electrón, muón y tau son cargados, mientas que los neutrinos, como su nombre indica, son neutros.
Los quarks, por otro lado, son los componentes fundamentales de los hadrones, es decir, las piezas básicas de las que se componen las partículas compuestas, como los nucleones, que sienten las interacción nuclear fuerte. Hay también seis tipos de quark: up, down, charm, strange, top y bottom. El hecho de que haya seis leptones y seis quarks permite a su vez agrupar estas partículas en tres familias, compuestas de dos quarks y dos leptones. Por ejemplo, la familia de menor masa se compone de electrón, el correspondiente neutrino, y los quarks up y down. En la imagen 2, los quarks aparecen en violeta y los leptones en verde.

Pasemos a describir las tres interacciones del Modelo Estándar. Como teoría cuántica que es, las partículas del Modelo Estándar interaccionan intercambiando cuantos, es decir, paquetes de energía del tipo correspondiente a la interacción en cuestión. Por ejemplo, el cuanto del campo electromagnético es el fotón, la partícula que originó la revolución cuántica de Planck. Un electrón cargado negativamente y un (anti)muon cargado positivamente, se atraen mediante el intercambio de fotones. La situación es parecida a la de un partido de tenis, en el que ambos tenistas interaccionan y se mueven siguiendo un intercambio de la pelota. La interacción débil posee tres cuantos, llamados Z, W+ y W-. Sus propiedades físicas son muy parecidas a las del fotón. Por esa razón, a la interacción electromagnética y la interacción débil se las conoce conjuntamente como interacción electro-débil. Finalmente, el cuanto de la interacción fuerte se conoce como gluón. En la imagen 2, estos cuantos aparecen en rojo.

Los cuantos de las interacciones del Modelo Estándar también se conocen como bosones de gauge, y así se los nombra en la imagen adjunta. El término hace referencia a que el Modelo Estándar es una teoría llamada de gauge. Este término se puede traducir como de calibración, y hace referencia a que la teoría es simétrica, es decir, invariante cuando ciertas operaciones se realizan en su formulación matemática en cada punto del espacio separadamente. Estas operaciones tienen una estructura matemática conocida como grupo. 
Para concluir los comentarios sobre interacciones, añadamos que hay ciertas teorías, llamadas de gran unificación, que postulan que el Modelo Estándar debería estar regido por grupos de simetría mayores que el que actualmente se conoce. El nombre de gran unificación viene en la línea de lo que discutíamos aquí: estas teorías especulativas logran unificar la descripción matemática de las interacciones fuertes y las electro-débiles.

Finalmente, el ultimo eslabón del Modelo Estándar es el bosón de Higgs. No entraremos aquí en detalle porque el Bosón de Higgs merece su propio post. Solo diremos que es el elemento del Modelo Estándar que da masa al resto de componentes, tanto partículas como cuantos de interacción.




Imágen 3: Oscar Varela en la construcción del LHC en el CERN en 2005

El Modelo Estándar es efectivamente una teoría de gran sofisticación verificada experimentalmente. Como es sabido, el Comité Nobel de Estocolmo hace de la verificación experimental requisito indispensable para otorgar tan prestigioso galardón. Así pues, el Modelo Estándar ha recibido varios. El primero, en 1979, lo recibieron Sheldon Glashow, Abdus Salam y Steven Weinberg (Imagen 1) por sus contribuciones a la teoría electro-débil. En 2004, David Gross, David Politzer and Franck Wilczek recibieron el premio Nobel por desentrañar ciertos aspectos de la interacción fuerte. Y más recientemente, François Englert y Peter Higgs compartieron el Nobel por sus descripciones teóricas, independientes, del famoso bosón.

En sucesivos posts seguiremos hablando del camino hacia la Unificación, para llegar finalmente a la Teoría de Cuerdas. 


Texto de Óscar Varela, Doctor en Físicas, Assistant Professor en Utah State University, y Senior Scientist en Max Planck Insitut für Gravitationsphysik, Postdam. 




miércoles, 30 de noviembre de 2016

Cantata al Universo: gravedad más allá de Einstein



Imagen Campo Profundo del Hubble

Observaciones llevadas a cabo en los últimos años han puesto de manifiesto que el Universo a gran escala no se comporta como esperaríamos a partir de la teoría de la gravedad de Einstein y nuestro conocimiento sobre las fuentes de materia y energía que habitan en él. De hecho, el desajuste es tan grande que, para poder encontrar un acuerdo razonable entre la teoría y las observaciones, es necesario asumir que cerca del 95% del contenido de materia y energía del Universo son de naturaleza totalmente desconocida. Las estrellas, nubes de gas, y todas las otras formas de materia y radiación que observamos en laboratorio tan solo representarían un 5% de la energía total del Universo.

La teoría de la Relatividad General de Einstein sólo nos dice que una parte de ese 95%, aproximadamente el 27%,  puede formar grumos o acumulaciones, la llamada materia oscura, mientras que el 65% restante, conocido como energía oscura, está distribuido uniformemente por todo el espacio y, además, tiene propiedades gravitatorias repulsivas. Como resultado de esa gran cantidad de energía oscura, la expansión del universo no se frena, si no que se acelera.

La imagen que proporciona la Relatividad General sobre la composición del Universo podría verse dramáticamente alterada si esta teoría no fuera aplicable a las escalas en las que la materia y energía oscuras son necesarias. Desde un punto de vista teórico, existen razones sólidas para creer que la Relatividad General de Einstein debe ser modificada a altas energías (típicamente asociadas a cortas distancias) para poder combinarla satisfactoriamente con el resto de interacciones conocidas, las cuales manifiestan propiedades cuánticas. Por un razonamiento análogo, es legítimo pensar que a grandes escalas (o muy bajas energías) podrían surgir nuevos efectos gravitatorios que alterasen la dinámica cosmológica y galáctica. De esta manera, la necesidad de fuentes de materia y energía oscura podría interpretarse como la manifestación de esa nueva dinámica gravitatoria. Por tanto, es de gran importancia explorar nuevas teorías de gravedad y sus implicaciones para la correcta interpretación de los datos observacionales de los que disponemos.

COST es un programa de la Unión Europea que potencia la colaboración de investigadores, académicos y otros agentes en torno a un reto científico. La acción CA15117 – “Cosmology and Astrophysics Network for Theoretical Advances and Training Actions (CANTATA)” financiada por este programa, permite a investigadores europeos que trabajan en teorías alternativas de gravedad coordinarse y unir sus esfuerzos y conocimientos para alcanzar un fin común. El principal objetivo de esta colaboración es el de encontrar un modelo teórico efectivo capaz de dar cuenta de la fenomenología relacionada con la gravedad cuántica (agujeros negros y el universo primitivo), así como de la fenomenología propia de escalas astrofísicas y cosmológicas en las que desde el prisma de la Relatividad General es necesario invocar fuentes de materia y/o energía oscura.

La primera reunión de CANTATA tuvo lugar en Lisboa los días 14-15 de Noviembre de 2016. En esta reunión, en la que participaron alrededor de 100 investigadores, se presentaron las principales líneas de actuación de los diferentes grupos de trabajo:

- Grupo 1: Gravedad Modificada. Este grupo lleva a cabo estudios de naturaleza teórica sobre diferentes teorías de gravedad teniendo en cuenta tanto el régimen de altas como de bajas energías. Por lo tanto, investiga la viabilidad de estas teorías a diferentes escalas: en el laboratorio, en el sistema solar y a escalas galácticas y cosmológicas. Además, considera la posible compatibilidad de estas teorías con un marco teórico subyacente de gravedad cuántica.

- Grupo 2: Efectos Relativistas. Este grupo tiene como objetivo descubrir efectos relativistas capaces de discriminar entre los efectos producidos por gravedad modificada de aquellos producidos por nuevas fuentes de materia/energía. Llevará a cabo estudios sobre modelos cosmológicos no homogéneos y/o anisótropos,  sobre la determinación de las abundancias de partículas generadas durante el universo primitivo (reliquias), profundizar en el concepto de energía del vacío, existencia de nuevos campos gravitatorios y modos de polarización de ondas gravitacionales.

- Grupo 3:  Discriminadores Observacionales. Es necesario encontrar la manera de distinguir entre modelos de materia/energía oscura y modelos de gravedad modificada, pues no siempre es obvio. Para ello, un paso fundamental es considerar los efectos producidos por pequeñas perturbaciones y su impacto en la formación y evolución de estructuras cósmicas. Los detalles de estos procesos son muy sensibles a las ecuaciones de la teoría, lo que proporciona una vía óptima para confrontar las diferentes teorías con los datos observacionales.

Miembros de la acción Cantata en Lisboa

Además de facilitar la interacción entre investigadores de distintos países, las acciones COST tratan de impulsar la participación de jóvenes científicos y de aliviar las desigualdades de género que afectan negativamente a la representatividad de las mujeres en el ámbito científico. La estructura de la Acción se ha pensado para cumplir con estos objetivos. Así, los grupos de trabajo están dirigidos por un investigador senior y uno más joven, manteniéndose en todos los casos la paridad de géneros.

La representación española en CANTATA es muy significativa, siendo la Dra. Ruth Lazkoz (profesora en la Universidad del País Vasco) la líder de la Acción y la Dra. Prado Martín Moruno (investigadora postdoctoral en la Universidad Complutense de Madrid) la co-líder del Grupo 1. El Dr. Gonzalo J. Olmo (investigador Ramón y Cajal en el IFIC/Universidad de Valencia) y la Dra. Prado Martín Moruno son los dos miembros del Comité Gestor que representan a España en esta Acción. Actualmente participan en ella investigadores de 23 países.


Texto de Gonzalo Olmo con la colaboración de Prado Martín. 










miércoles, 23 de noviembre de 2016

Unificación






Una de las herramientas más útiles que los físicos teóricos poseemos para desentrañar las leyes de la Física a niveles cada vez más profundos consiste en sintetizar las causas y características comunes de fenómenos aparentemente distintos. Este modo de razonar se conoce como unificación.

Las ideas de unificación se remontan a los propios orígenes de la ciencia moderna. En el siglo XVII, Isaac Newton dedujo que el movimiento de los planetas del Sistema Solar y el movimiento de una manzana que cae de su árbol en la Tierra se debe al mismo fenómeno físico: la gravitación. Esto, que para nosotros en el siglo XXI es tan obvio, ciertamente no lo era hasta que Newton así lo explicó. Podemos, pues, decir que Newton unificó la mecánica celeste y la terreste: fenómenos cuya naturaleza se pensaba completamente distinta, resultaban ser distintas manifestaciones de las mismas leyes de gravitación.


Otra gran idea unificadora ocurrió en el siglo XIX, cuando el físico escocés James Clerk Maxwell reconoció que la electricidad y el magnetismo resultan ser dos caras distintas de las mismas leyes físicas. En un fiel paralelismo de esta situación física, en la actualidad conocemos a la teoría de Maxwell como electromagnetismo, condensando así el concepto en una única palabra. Las leyes del electromagnetismo, junto con posteriores desarrollos en la física de materiales, la electrónica y la computación, nos permiten ahora disfrutar de nuestros contenidos favoritos en la red, como este blog.

James Clerk Maxwell

No es, sin embargo, hasta principios del siglo pasado cuando las ideas sobre unificación irrumpen con fuerza en la física tal y como las conocemos hoy en día. Lo hacen, cómo no, de la mano del gran genio Albert Einstein. En 1905, un detallado estudio de las propiedades del movimiento de los cuerpos sometidos a las leyes de Maxwell del electromagnetismo llevó a Einstein a formular su teoría especial de la Relatividad. Entre otras muchas cosas, la teoría especial de la Relatividad establece que tiempo y espacio han de verse realmente como componentes en pie de igualdad en un espacio-tiempo unificado de cuatro dimensiones.

El calificativo de especial de la teoría de Einstein de 1905 hace referencia a que esta teoría se ha de aplicar a todos los procesos físicos con excepción de aquellos que involucran la gravitación. El electromagnetismo clásico de Maxwell era el caso paradigmático que implementaba las ideas relativistas de Einstein. También era el contexto, como ya hemos señalado, en el que la relatividad especial fue originalmente formulada.

Para el propio Einstein era evidente que la teoría especial de la relatividad excluía la física de los fenómenos gravitatorios. Acomodarlos requería una generalización en absoluto obvia de la teoría. Unos diez años llevó a Einstein encontrar esa generalización. Este año conmemoramos el centenario de la teoría general de la Relatividad, la extensión que incluye los efectos gravitatorios en el marco de las ideas relativistas. La Relatividad General explica la atracción gravitatoria en términos geométricos: los objetos masivos deforman y curvan el tejido espacio-temporal a su alrededor. Por ejemplo, el sol curva el espacio-tiempo creando surcos, que nosotros percibimos como órbitas, en los que se mueven los planetas. De la misma manera, la Tierra, al curvar el espacio-tiempo a su alrededor, fuerza a una manzana que se desprende de su árbol a caer sobre su superficie.


La teoría de la gravitación de Newton, y posteriormente la extensión relativista de Einstein, unifica la física terrestre con la celeste. La teoría de Maxwell unifica la electricidad y el magnetismo. Así pues, a principios del siglo pasado una pregunta evidente era si existe una teoría que describa simultáneamente la gravitación de Einstein y el electromagnetismo de Maxwell. En este contexto, el matemático alemán Theodor Kaluza propuso una audaz idea. Kaluza planteó abandonar la idea de un espacio-tiempo cuatro-dimensional y formuló una versión cinco-dimensional de la Relatividad General. Es decir, Kaluza sugirió la existencia de una cuarta dimensión espacial, además de las tres dimensiones espaciales habituales y el tiempo, y planteó las ecuaciones de la Relatividad General en ese espacio-tiempo cinco-dimensional. Kaluza demostró matemáticamente que sus ecuaciones en cinco dimensiones contenían las ecuaciones de la gravitación de Einstein y el electromagnetismo de Maxwell en las convencionales cuatro dimensiones.

Theodor Kaluza

Intuitivamente, la idea de Kaluza funciona porque en cinco dimensiones hay «más lugar» que en cuatro para acomodar un mayor número de leyes físicas. Sin embargo, como es de suponer, esta extravagante idea fue recibida con reservas: si existe una cuarta dimensión espacial, es decir, una quinta dimensión del espacio-tiempo, ¿por qué no somos capaces de verla? Einstein, al recibir el artículo de Kaluza para su publicación en la revista de la Academia Prusiana de Ciencias, tardó dos años en dar su visto bueno. Un retraso semejante en la actualidad dejaría en la estacada a más de uno, dado el exigente régimen de «publish or perish» al que nos vemos sometidos los investigadores.

La solución al problema de la invisibilidad de la quinta dimensión del espacio-tiempo fue propuesta unos años más tarde por el físico sueco Oskar Klein. La explicación dada por Klein se basa en suponer que tal dimensión adicional no es extensa, como el resto, sino que se enrolla sobre sí misma formando un minúsculo círculo. Según Klein, si tuviéramos los medios necesarios para explorar distancias muy pequeñas, veríamos que cada punto del espacio tridimensional ordinario tiene estructura y es, en realidad, un pequeño círculo. De la misma manera, un objeto distante se nos antoja un mero punto y solo si nos acercamos somos capaces de distinguir sus dimensiones reales.

Oskar Klein 


La idea original de Kaluza-Klein es de gran belleza y completamente válida desde un punto de vista estrictamente especulativo. No obstante, sin ni siquiera tener que verse sometida a veredicto experimental, descubrimientos posteriores sugieren que esta teoría no puede ser completamente correcta. Una poderosa razón la proporciona, de nuevo, el argumento unificador. La quinta dimensión de Kaluza-Klein efectivamente unifica gravedad y electromagnetismo, las dos interacciones conocidas cuando esta teoría fue propuesta. Sin embargo, actualmente sabemos que hay dos interacciones fundamentales más, que quedan fuera del marco de Kaluza-Klein. Estas dos interacciones se conocen, en un alarde de originalidad notacional, como interacciones nucleares fuerte y débil. La primera es responsable de mantener los protones unidos en los núcleos atómicos. A cuenta de la segunda funcionan, por ejemplo, las centrales nucleares.

Hay otra razón de mayor calado por la cual resulta necesario revisar la teoría de la gravitación de Einstein. La razón es que, mientras que el electromagnetismo y las fuerzas nucleares fuertes y débiles se amoldan a los preceptos de la mecánica cuántica, la teoría de Einstein no lo hace: la Relatividad General es una teoría, la cima de hecho, de la mecánica clásica. Y esto es un serio problema cuando se pretenden estudiar fenómenos a escalas donde los efectos cuánticos son importantes, como por ejemplo procesos en presencia de agujeros negros o la singularidad inicial del universo, el big bang.


Así pues, la pregunta es pertinente: ¿existe una formulación única que describa todas las interacciones fundamentales y, en particular, la versión cuántica de la gravitación? Es evidente que necesitamos nuevas ideas para abordar estos problemas. La teoría de cuerdas es el marco en que muchos físicos teóricos trabajamos para dar respuesta a esas preguntas. En posts sucesivos contaremos sus fundamentos. 


Texto de Óscar Varela, Doctor en Físicas, Assistant Professor en Utah State University, y Senior Scientist en Max Planck Insitut für Gravitationsphysik, Postdam. 

jueves, 17 de noviembre de 2016

La Física en la Medicina



Si a un gran número de personas se les preguntase acerca de la presencia de físicos en los hospitales, prácticamente la inmensa mayoría mostraría su desconocimiento. La labor desarrollada en estos centros es incluso ignorada por profesionales sanitarios, y hasta cierto punto, lo es también por el resto de la comunidad de físicos.
El vínculo entre la Física y la Medicina es tan antiguo como el afán de conocer los mecanismos de funcionamiento del cuerpo humano. Las investigaciones en biomecánica se remontan a la época de Leonardo da Vinci, con los estudios de anatomía y de las proporciones, así como la invención de dispositivos que emularan el comportamiento de especies animales, como los intentos por dotar al ser humano de la capacidad de volar.
La observación de estructuras de reducidas dimensiones que a simple vista no pudieron describirse con anterioridad fue posible gracias a la invención del microscopio por Z. Janssen en 1590, apareciendo su uso en 1665 en la observación de capilares sanguíneos en la obra de W. Harvey y por R. Hooke, el mismo año, quien describió por primera vez el concepto de célula al observar las celdillas de un corte de corcho. El primer microscopio electrónico se debe a E. Ruska y M. Knoll entre 1925 y 1930, quienes se basaron en los estudios de Louis-Victor de Broglie acerca de las propiedades ondulatorias de los electrones. Un microscopio electrónico utiliza electrones en lugar de luz visible para la formación de las imágenes debido a que la longitud de onda de los electrones es mucho menor que la de los fotones de luz visible, alcanzando amplificaciones mayores que los mejores microscopios ópticos.
Sin embargo, el avance que probablemente más ha contribuido al desarrollo de la Medicina en el siglo XX fue el descubrimiento en 1895 de los rayos X por el físico alemán Wilhelm Conrad Röntgen, mientras investigaba la fluorescencia que producían los rayos catódicos. Los rayos X son una radiación electromagnética debida a fenómenos de transición electrónica en las capas profundas de la corteza atómica, o producidos, fundamentalmente, por la desaceleración de electrones como radiación de frenado.
En general, la energía de los rayos X se encuentra entre la radiación ultravioleta y los rayos gamma producidos por transiciones nucleares. Estas tres modalidades de radiación electromagnética pertenecen a la categoría de radiaciones ionizantes porque al interactuar con la materia producen la ionización de sus átomos, es decir, originan partículas cargadas (iones).
Por este descubrimiento, Röntgen recibiría el Premio Nobel de Física en la primera edición celebrada en 1901. En la primavera de 1895, Henri Becquerel descubrió accidentalmente la capacidad de algunas sales de uranio para ennegrecer una película radiográfica de manera espontánea, a diferencia de la fosforescencia que depende de la estimulación mediante una fuente externa de energía. Estos recientes descubrimientos influenciaron a María Sklodowska Curie a desarrollar en este campo de investigación su tesis doctoral (Recherches sur les substances radioactives) y con la colaboración de su esposo, Pierre Curie, describieron los fenómenos por los que espontáneamente se desintegran algunas sustancias dando origen a la radioactividad natural.
Los tres recibieron el Premio Nobel de Física en 1903 como reconocimiento a sus investigaciones conjuntas acerca de la radiactividad, siendo además la primera ocasión en que una mujer obtenía este galardón.

El interés por las aplicaciones prácticas que estos descubrimientos pudieran aportar a la Medicina fue inmediato. Durante la Primera Guerra Mundial (IGM), los hospitales de campaña carecían de personal experimentado y máquinas de rayos X adecuadas, de modo que Marie Curie propuso emplear equipos portátiles de radiografía cerca de las líneas del frente para ayudar a los médicos en el campo de batalla. Adquirió equipos de rayos X, vehículos, generadores auxiliares, y desarrolló unidades móviles de radiografía a las que llamó «ambulancias radiológicas» (ambulances radiologiques). Fue la directora del Servicio de Radiología de la Cruz Roja francesa y creó el primer centro de radiología militar de Francia, operativo a finales de 1914.

Madame Curie en una de las unidades móviles de rayos X

En 1915, empleó cánulas de sus propios suministros que contenían «emanaciones de radio», un gas incoloro y radiactivo emitido por el elemento, que posteriormente fue identificado como radón, para la esterilización de los tejidos infectados. Se estima que más de un millón de soldados heridos fueron tratados con sus unidades de rayos X.
En su primera visita a Estados Unidos, con la finalidad de recaudar financiación para la síntesis del radio dados los extremados costes de producción y la utilización de las reservas durante la IGM, el New York Times publicó en su portada que Madame Curie tenía la intención de «poner fin al cáncer», alegando que «el radio es la cura para cualquier tipo de cáncer».

La radioterapia (en su origen Curieterapia, o Röntgentherapie en Alemania) es introducida en España en el año 1906 por Celedonio Calatayud, primer médico español en utilizarla en la lucha contra el cáncer. En 1922 la oncología es establecida como disciplina médica. Desde entonces, la radioterapia ha evolucionado con la aparición en 1953 de los aceleradores lineales, principalmente electrones aunque también de partículas cargadas, que poco a poco reemplazaron los tratamientos con fuentes radiactivas como el cobalto.

Sesión de radioterapia en el Istituto Nazionale per lo Studio e la Cura dei Tumori, hacia 1930. En la actualidad, Fondazione IRCCS, Istituto Nazionale dei Tumori, Milán

No obstante, los usos del radio desgraciadamente trascendieron del ámbito de la oncología, dado el desconocimiento que por entonces se tenía de sus potenciales efectos nocivos para la salud. Hasta finales de los años 60 se usaba en pinturas luminiscentes para relojes y otros instrumentos. Muchos pintores de esferas de reloj, que usaban sus labios para moldear el pincel, murieron de radiación. El radio se empleaba a principios de siglo y hasta los años 30 en medicinas, entre ellos el Radithor (agua destilada con radio), que lo describían como solución ante todos los males, hasta que causó la muerte a un personaje importante de la sociedad americana (M. Byers). El escándalo contribuyó a la introducción de normas de regulación del uso de radioisótopos. También se mezclaba con pastas dentales, chicles, cremas y demás productos. El motivo era que todo aquello que contenía radio significaba avance.
El riesgo para la salud no sólo depende de la intensidad de la radiación y de la duración de la exposición, sino también del tipo de tejido afectado y de su capacidad de absorción. Los efectos mutagénicos de la radiación fueron identificados por primera vez por Hermann Joseph Muller en 1927, investigación por la que le fue concedido el Premio Nobel de Medicina en 1946.
El desarrollo de la radiobiología ha permitido profundizar en el conocimiento del daño celular que las radiaciones ionizantes causan de manera probabilística o determinista, sentando, respectivamente, las bases de la prevención en materia de protección radiológica, o de su utilización en el tratamiento oncológico.
Los avances tecnológicos acontecidos durante la Segunda Guerra Mundial (IIGM), como la invención del radar, tuvieron también su impacto en el ámbito de la oncología, dado que el mismo ingenio desarrollado en 1937 en Stanford por los hermanos Russell y Sigurd Varian, conocido como klystron, responsable de generar y amplificar señales de microondas, es así mismo utilizado en la aceleración de los paquetes de electrones introducidos en las cavidades resonantes de una guía de ondas, los cuales experimentarán posteriormente el impacto en un blanco de tungsteno generando, por radiación de frenado, los haces de fotones dedicados al tratamiento de lesiones tumorales.
En el diagnóstico por la imagen los avances en la detección de enfermedades mediante exploraciones realizadas con tomografía computadorizada (CT), tomografía por emisión de positrones (PET), o resonancia magnética nuclear (RMI), así como equipos híbridos, o bien la ecografía basada en ultrasonidos, han permitido un conocimiento detallado con unos procedimientos no invasivos.
G.N. Hounsfield, tras la IIGM ingresó en la empresa discográfica EMI y en 1967, en colaboración con A.M. Cormack, desarrollaron el primer prototipo aplicable de CT, recibiendo ambos el Premio Nobel de Medicina en 1979.
La primera aplicación médica basada en la aniquilación de positrones se debió a W.H. Sweet y F.R. Wrenn, quienes en 1951 la emplearon en la detección de tumores cerebrales. En 1973 Robertson desarrolló el primer tomógrafo de anillo en el Brookhaven National Laboratory, el cual disponía de 32 detectores. A finales de 1974, M. Phelps y E.J. Hoffman de la Universidad de Washington construyeron el primer PET dedicado a estudios con humanos, el cual disponía de 48 detectores de NaI(Tl) distribuidos hexagonalmente.
La imagen por resonancia magnética se basa en los distintos tiempos de relajación de los núcleos de hidrógeno, generalmente, que componen los tejidos cuando son excitados por pulsos de radiofrecuencia en presencia de un campo magnético de alta intensidad. Este fenómeno fue descrito en 1938 por I. Rabí. En 1946, F. Bloch y E.M. Purcell refinaron la técnica usada en líquidos y sólidos, por lo que compartieron el Premio Nobel de Física en 1952.
Purcell colaboró en el desarrollo del radar y sus aplicaciones durante la IIGM en el Instituto Tecnológico de Massachusetts (MIT). En ese proyecto se dedicó a producir y detectar energía de radiofrecuencia, así como su absorción por la materia. Encontraron que algunos núcleos podían absorber la energía de radiofrecuencia en presencia de un campo magnético de una intensidad específica, logrando así la identificación de los núcleos.
Cuando se produce esa absorción, los núcleos entran en resonancia. Diferentes núcleos atómicos dentro de una molécula resuenan a diferentes radiofrecuencias para la misma intensidad de campo magnético, permitiendo la identificación estructural y química de las moléculas.
La ecografía se basa en la formación de imágenes reconstruidas a partir del eco recibido en una sonda (transductor) consistente en cristales piezoeléctricos que al ser estimulados por electricidad vibran produciendo ondas sonoras de alta frecuencia (ultrasonidos). El eco reflejado en las estructuras corporales retorna a la sonda que es nuevamente estimulada produciendo pequeños voltajes que son procesados de acuerdo a su intensidad y tiempo de retorno. La propiedad de la piezoelectricidad fue observada por primera vez por Pierre y Jacques Curie en 1881 estudiando la compresión del cuarzo.
Una variedad de ecografía es la basada en el efecto Doppler, en la que es posible visualizar las ondas de velocidad del flujo que atraviesa ciertas estructuras del cuerpo, en general vasos sanguíneos, y que son inaccesibles a la visión directa. La técnica permite determinar si el flujo se dirige hacia la sonda o si se aleja de ella, además de la velocidad de dicho flujo.
A diferencia de los procedimientos radiográficos o basados en la administración de radioisótopos, tanto en la resonancia magnética nuclear como en la ecografía no se emplea radiación ionizante.
El avance en la aplicación clínica de las radiaciones, mayoritariamente ionizantes, permite mejorar la calidad diagnóstica de la imagen con una reducción sensible de los niveles de dosis recibidos, así como en el tratamiento de enfermedades, tanto oncológicas, como derivadas de patologías funcionales como epilepsia, Parkinson o neuralgia del trigémino, mediante el uso de haces de radiación de alta energía focalizados hacia la lesión con una precisión sub-milimétrica, en base a la localización y posicionamiento conseguidos con técnicas como la radioterapia guiada por la imagen.
La puesta en funcionamiento previo a su uso clínico, así como las pruebas de control de calidad que periódicamente todas estas aplicaciones requieren para garantizar su adecuado uso, son competencia de la especialidad sanitaria conocida como Radiofísica Hospitalaria, creada por Real Decreto 220/1997 de 14 de febrero, con la finalidad de conferir un marco legal que regulase el acceso y las responsabilidades de los físicos dedicados al ámbito hospitalario.
Esta cuestión en España fue de enorme trascendencia debido a la ausencia de legislación en materia de Garantía de Calidad que permitiera tener un mayor control del estado de funcionamiento de los equipos emisores de radiación, especialmente de los dedicados a niveles de terapia, conduciendo a finales de los años 90 al establecimiento de los reales decretos correspondientes a la Garantía de Calidad en Radiodiagnóstico, Medicina Nuclear y Radioterapia.
Las recomendaciones proporcionadas por sociedades científicas nacionales e internacionales (como la Sociedad Española de Física Médica creada en 1974, o la American Association of Physicists in Medicine, en 1958), sirven de referencia para la elaboración de procedimientos de trabajo, además de proporcionar tolerancias y periodicidades, que facilitan la comparación del equipamiento entre diferentes centros.
Esta labor además de obligatoria, es necesaria y de gran relevancia para minimizar los riesgos derivados de una mala praxis, por desconocimiento u omisión, que pudieran comprometer la salud, e incluso la vida de los pacientes.


Este texto ha sido escrito por Daniel Zucca, físico especialista en Radiofísica Hospitalaria, adjunto al Servicio de Radiofísica y Protección Radiológica del Hospital Universitario HM Sanchinarro (Madrid).