lunes, 30 de enero de 2017

Hidrógeno metálico: realidad o ficción


En el mundo de las altas presiones hay un objetivo que se ha perseguido durante mucho tiempo: la metalización del hidrógeno. En este campo, la fase metálica de este material ha sido considerada como el santo grial. Los grupos más poderosos dedican enconados esfuerzos por alcanzarlo, rozándolo con los dedos en algunas ocasiones y fracasando estrepitosamente en otras. Los grupos de Gregoryanz en Escocia, Eremets en Alemania, Loubeyre en Francia o Silvera y Hemley en Estados Unidos llevan muchísimos años sometiendo al hidrógeno a presiones brutales para detectar una pista que indique que el hidrógeno es metálico. También su búsqueda ha abierto nuevos caminos que hasta ahora nadie se había planteado, como por ejemplo el estudio de polihidruros y sus propiedades superconductoras. Pero vamos a empezar desde el principio.


Figura tomada de chemistryworld.com

Todo comenzó en 1935, cuando Wigner y Huntington1 analizando los efectos de las altas presiones en el hidrógeno predijeron la posible metalización de este en forma de sólido monoatómico tipo alcalino-metálico. Desde entonces la metalización de este elemento ha sido considerada como una de las fronteras de la ciencia con implicaciones en multitud de campos diversos. En astrofísica, el descubrimiento de hidrógeno metálico podría permitir reproducir las condiciones de los núcleos de muchos planetas como Júpiter o Saturno, y las características especiales observadas en planetas extrasolares descubiertos recientemente. Por otro lado, la producción de hidrógeno metálico podría revolucionar los viajes espaciales, algo que ya ha sido discutido en una más que interesante entrada realizada por Daniel Marín (aquí), debido a que este material es 12 veces más denso que el hidrógeno gas y puede liberar 20 veces su energía al quemarse con oxígeno, produciendo solo agua como residuo de la combustión. Si esto no fuese suficiente, Ashcroft2 en 1968 predijo el comportamiento superconductor del hidrógeno metálico a altas temperaturas. El hidrógeno metálico al tener una masa atómica pequeña se postula para tener un acoplamiento electrón-fonón muy fuerte y una gran densidad de estados en el nivel de Fermi. Todas estas características hacen que el hidrógeno metálico sea un estupendo candidato para exhibir propiedades superconductoras según la teoría de Bardeen-Cooper-Schrieffer (BCS).

Los primeros trabajos experimentales en los años 70 vinieron lastrados por la incapacidad técnica de alcanzar presiones más allá del Megabar (100 GPa o lo que es lo mismo 1 millón de veces la presión atmosférica) en régimen estático. De los primeros científicos en darse cuenta de la importancia de esta fase metálica del hidrógeno hay que destacar el esfuerzo del Prof. Ashcroft; también vieron la luz los primeros trabajos del Prof. Silvera.

En los últimos años, con la mejora de las celdas de yunques de diamante que permiten el acceso a presiones cada vez más altas, esta lucha se ha recrudecido. Los enfrentamientos entre algunos de los jefes de los principales grupos de investigación han sido evidentes en todos los congresos en los que coincidían y han rozado en algún caso el mal gusto. Aún se puede sentir esa animadversión en los comentarios que se han hecho públicamente al trabajo de Dias y Silvera. Volviendo al apartado técnico, no solo es necesario que se pueda aplicar suficiente fuerza a los diamantes sino que estos resistan esos gradientes de presión. Actualmente, se realizan tratamientos en los diamantes para que no tengan el más mínimo defecto y se puedan alcanzar los 4-5 megabares sin necesidad de una segunda etapa, aunque no sin problemas. El hecho de alcanzar una presión tan alta conlleva unos problemas asociados, más si cabe en el estudio del hidrógeno. El hidrógeno, al ser tan pequeño, se difunde a través de los diamantes a altas presiones y se cuela entre los enlaces de carbono volviéndolos extraordinariamente débiles; cuando el hidrógeno se mete dentro del diamante, se crean unas diferencias de presión en su interior que producen su rotura.


¿Cómo resolvieron Dias y Silvera3 este problema en su trabajo reciente? Primero usaron diamantes sintéticos con menos propensión a tener defectos que los naturales, y además fueron pulidos para evitar las típicas impurezas de las zonas superficiales. Para evitar la difusión del hidrógeno, se depositó una capa de alúmina sobre la culata del diamante y los mantuvieron siempre a temperaturas por debajo de los 80 kelvin. Fueron alineados perfectamente uno frente a otro y no se expusieron a ningún láser hasta la hora de la medida.

Respecto a la identificación de la fase metálica, se hizo con una técnica simple que es el objeto de muchas de las críticas de las que ha sido objeto el trabajo, y es la reflectividad óptica de un láser sobre la muestra. Los autores observan que la reflectancia a una presión de 495 GPa es de 0.91, un valor muy cercano a la reflectancia obtenida en un metal. El espectro de la reflectrividad en función de la longitud de onda permitió mediante el modelo de Drude estimar el número de portadores de la muestra a través de la medida de la frecuencia de plasma. La concentración de electrones por unidad de volumen resultó ser tan elevado como se espera de un metal (mas de 1023 cm-3). Hay que destacar que todas estas medidas fueron realizadas a baja temperatura (5.5 Kelvin).


Figura tomada de la referencia 3


¿Qué peros se pueden poner a este trabajo que parece reclamar el descubrimiento definitivo de la fase metálica del hidrógeno? En primer lugar, tanto Eremets como Gregoryanz se quejan del método utilizado para calcular la presión a la que está el hidrógeno. Cierto es que normalmente la presión a estos niveles se calcula gracias al pico Raman del propio diamante; sin embargo, en este trabajo esto no se mide en todo el experimento hasta la última medida, la que proclama la fase metálica del hidrógeno. Durante el proceso intermedio, Silvera usa un sistema al menos cuestionable, como es apretar unos tornillos y suponer que la presión en la muestra es la misma que la de otros experimentos realizados anteriormente con la misma celda pero con distintos diamantes.

Figura tomada de la referencia 3


Otro pero es la falta de medidas de sus propiedades eléctricas. Su medición sería definitiva para poder concluir que lo que hay entre los dos diamantes es sin duda alguna una fase metálica pero aún más, no se sabe si es sólido ni si cristaliza en la misma fase predicha por los cálculos teóricos. No debería ser muy difícil que cualquier sincrotrón del mundo se ofreciese voluntario para hacer una rápida medición de difracción de rayos X, ya que la muestra sigue confinada en la celda de diamante para exposición pública en el laboratorio de Silvera en la Universidad de Harvard. Por último, se echa en falta la repetitividad del experimento; se sabe que se está en la frontera de la ciencia y la técnica, por lo que hay que intentar repetir al menos una vez el experimento para asegurarse que las condiciones son reproducibles y no estamos ante un resultado espurio.

En definitiva, ¿se ha encontrado la fase metálica del hidrógeno? Parece que sí y es el trabajo más completo acerca de esta búsqueda que se ha publicado hasta ahora. ¿Este trabajo es absolutamente definitivo? No, y además estoy seguro que otros grupos trabajarán arduamente para refutarlo. Señores y señoras, preparen las palomitas porque esto no ha acabo aquí. Se lo aseguro, empieza la guerra.

Texto escrito por Juan Ángel Sans (@tresse77).



1 E. Wigner and H. B. Huntington. “On the Possibility of a Metallic Modification of Hydrogen” J. Chem. Phys. 3, 764 (1935); http://aip.scitation.org/doi/abs/10.1063/1.1749590
2 N. W.Ashcroft. “Metallic Hydrogen: A High-Temperature Superconductor?” Phys. Rev. Lett. 21, 1748 (1968): http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.21.1748

3 R. P. Dias and I. F. Silvera. “Observation of the Wigner-Huntington transition to metallic hydrogen” 10.1126/science.aal1579 (2017);

viernes, 20 de enero de 2017

Agujeros negros y ondas gravitacionales


El 11 de Febrero de 2016 se anunció la primera detección directa de ondas gravitacionales. Los dos detectores del experimento LIGO, situados en Livingston y Hanford (EEUU), respectivamente, reportaron un evento de colisión entre dos agujeros negros de 29 y 36 masas solares, respectivamente, situados a una distancia de unos 1.300 millones de años luz (en comparación, el diámetro medio de la Vía Láctea es de unos 100.000 años luz). La magnitud de la explosión cósmica es tal que, durante un período de una décima de segundo, se liberó una potencia unas 50 veces superior a la de todo el Universo junto. 
¿Cómo sabemos todo esto? ¡El propio Einstein pensaba que no era posible! Las razones hay que buscarlas en los enormes progresos tecnológicos y teóricos acaecidos durante las últimas décadas, así como en el establecimiento de enormes redes de colaboración y esfuerzo coordinado a nivel internacional. El marco teórico corresponde a la Relatividad General, desarrollado casi en solitario por Albert Einstein entre los años 1905 y 1916, el cual vino a reemplazar la idea de Isaac Newton de que la gravedad era una fuerza que ``tira” de nosotros, por una interpretación de la gravedad como un efecto geométrico: la materia/energía curvan el espacio y el tiempo y el movimiento que experimentan los cuerpos en dichos espacio y tiempo curvados se siente como una fuerza gravitatoria; en palabras de John Wheeler: ``la materia le dice al espacio-tiempo como debe curvarse, la curvatura del espacio-tiempo le dice a la materia como debe moverse”. Cuando se pregunta a la Naturaleza, a través de experimentos, si es Newton o Einstein quién está acertado, esta nos responde que el segundo. Sirvan como ejemplo la explicación del perihelio de Mercurio, o las predicciones de la curvatura de la luz al pasar por las cercanías de un objeto muy masivo (por ejemplo el Sol), el corrimiento al rojo gravitacional, o el movimiento de púlsares binarios.

Agujeros negros y sus sorprendentes propiedades

Las ondas gravitacionales son otra predicción de la Relatividad General que, sin embargo, aún no había sido testada. En esencia, la naturaleza dinámica del espacio y el tiempo en la teoría de Einstein hacen que, cuando un objeto masivo se mueve, se generen perturbaciones en la estructura del espacio-tiempo, las cuales se propagan a la velocidad de la luz. Sin embargo, dichas perturbaciones son extremadamente débiles, lo cual explica que, un siglo después de su predicción, aún no hubieran sido detectadas. En este sentido, hace años que los astrofísicos habían llegado a la conclusión de que la mejor oportunidad para detectarlas residía en estudiar pares de agujeros negros.




El concepto de un cuerpo tan denso que ni siquiera la luz puede escapar de él fue ya descrito en una etapa tan temprana como 1783 en una comunicación a la Royal Society por un geólogo inglés llamado John Michell. Su idea consistía en llevar el concepto de velocidad de escape al límite, de tal modo que ningún objeto, por muy rápido que se pudiera mover, podría escapar de dicho cuerpo denso. Debido al limitado conocimiento empírico de la época, dicho concepto fue desechado como una curiosidad. Sin embargo, el concepto renació en 1916 cuando, recién salida de imprenta la Relatividad General, Karl Schwarzschild encontró una solución matemática de dicha teoría que permitía la existencia de un cuerpo supermasivo y tan concentrado que su velocidad de escape sería mayor que la de la luz. Como la teoría de la Relatividad (Especial) impone que ningún objeto físico puede moverse a mayor velocidad que la de la luz, nada podría escapar de dichos cuerpos: el concepto de agujero negro (acuñado por John Wheeler en 1969) hacía acto de aparición en la teoría de Einstein.
Ahora bien, ¿Cómo sabemos que los agujeros negros son reales y no un mero truco matemático? Utilizando los extensos conocimientos empíricos acumulados durante décadas, así como poderosos métodos de física nuclear, los astrofísicos creen conocer con bastante exactitud el proceso de nacimiento, vida y muerte de las estrellas. Cuando estas son muy masivas, su etapa final termina ``a lo grande”, con una explosión en forma de supernova durante la cual su luminosidad crece hasta superar, durante unos pocos días, la de toda la galaxia por completo en la cual está ubicada. Pero aún más interesante es el hecho de que, si la masa del remanente de la explosión de supernova es lo suficientemente grande (unas 2,5 masas solares), ningún mecanismo conocido en la Física puede impedir que el destino final de dicho remanente sea colapsar para formar un agujero negro.




 Ahora bien, todo esto no implica que los agujeros negros existan de verdad. ¿Cómo podemos ver un objeto que no emite luz? La mejor oportunidad es utilizar el hecho de que la mayor parte de las estrellas en el Universo son en realidad sistemas binarios: dos estrellas, con diferentes masas y etapas vitales, orbitando alrededor del centro de masas del sistema. Supongamos que una de ellas se ha convertido en un agujero negro. Lo que sucede a continuación es que, debido a su intenso campo gravitatorio, empieza a absorber parte del material de su compañera (la canibaliza). Sin embargo, hay que recordar que el agujero negro es, en realidad, un objeto muy pequeño, de tal manera que el material atraído no puede ser tragado inmediatamente por este. De tal modo que dicho material se arremolina en un disco alrededor del agujero negro y se calienta hasta temperaturas increíbles. Hasta tal punto, que la interacción de dicho material hace que parte se eyecte transversalmente al disco a velocidades cercanas a las de la luz. Si un telescopio en la Tierra está, por fortuna, alineado con dicho material eyectado, lo que se observa es que desde una zona del espacio donde no ve ningún objeto (porque, recordemos, el agujero negro no emite luz), pero del cual sin embargo uno puede calcular su masa (a través de las perturbaciones gravitacionales sobre su estrella compañera), llegan enormes cantidades de energía en forma de partículas a casi la velocidad de la luz. El único objeto compatible con dicho suceso es, precisamente, un agujero negro, y este método se ha convertido en una herramienta rutinaria para ``detectar” decenas de agujeros negros (Cygnux X-1, en 1964, fue el primero).

A la caza de ondas gravitacionales

Evidencias indirectas de la existencia de ondas gravitacionales ya se habían recopilado en el año 1974, con la observación del púlsar binario PSR B1913+16. Dichos púlsares se corresponden con dos estrellas de neutrones en rotación una alrededor de la otra, y acompañados de un campo magnético muy intenso. La Relatividad General nos dice que dicho sistema debe perder energía de forma progresiva vía emisión de ondas gravitacionales y que, consecuentemente, se debería observar una disminución progresiva del periodo de rotación del púlsar doble…¡y esto es exactamente lo que se observa al comparar observación con predicción teórica con una concordancia total! No obstante, esto aún no representa una observación directa de ondas gravitacionales.
Es en este momento cuando entra en escena el detector LIGO (``Laser Interferometry Gravitational Wave Observatory”). Los culpables de este experimento son muchos, donde podemos destacar la idea original por parte de Rainer Weiss (MIT, 1967) y los estudios teóricos detallados para dar forma a esta idea por parte de Kip Thorne (Caltech, 1968). Desde los años 80 numerosos prototipos, que verificaban la viabilidad del diseño, fueron propuestos para su financiación, la cual fue aprobada en los años 90. Finalmente el detector LIGO entró en pleno funcionamiento a mediados de la década de 2000.
El núcleo principal de LIGO lo conforma un interferómetro, dos brazos en forma de L, cada uno de unos 4 kms de longitud. Desde una fuente se emite un láser, el cual es dividido en un espejo en dos hacia cada uno de los dos brazos, de tal manera que, al llegar al final de cada uno de ellos, es reflejado para volver a recombinarse en el espejo inicial. Dado que la luz es una onda, si la distancia de los dos brazos es exactamente la misma, los picos y valles de cada uno de los dos láseres interferirán de manera destructiva de tal manera que un fotodetector situado en el espejo divisor no detectará ninguna señal lumínica. El objetivo de LIGO pasa por lo siguiente: si en cualquier momento una onda gravitacional atraviesa el aparato experimental, la perturbación que genera en la estructura del espacio y el tiempo hará que la longitud de uno de los dos brazos se acorte ligeramente, mientras que el otro se alargará. En ese momento, dado que la distancia que el láser recorrerá en cada uno de los brazos será diferente, la interferencia ya no será completamente destructiva al llegar al fotodetector, el cual será capaz, en principio, de detectar una pequeña cantidad de luz. El hecho de que LIGO tenga dos detectores, uno en Hanford y otro en Livingston, separados por una distancia de unos 3000 km, ayuda a determinar la procedencia de la señal de ondas gravitacionales.
¿Cómo de pequeña es la señal? Los cálculos teóricos indican que es extremadamente débil…¡una parte en 10^21! (unas mil veces más pequeña que el radio de un protón). Es tan débil que efectos tan cotidianos como el tráfico, microterremotos o el ruido término es millones de veces más intenso que la señal que queremos detectar y, por tanto, nuestro detector sería incapaz de distinguir la onda gravitacional del ruido ambiente. Afortunadamente, el trabajo colectivo de ingenieros, experimentales y teóricos consiguieron un logro de la ingeniería moderna al reducir el ruido ambiental por debajo de la sensibilidad de LIGO. Las puertas a la detección de ondas gravitacionales estaban, pues, abiertas, y un primer evento se registró el 14 de Septiembre de 2015.
No obstante, la detección necesita ser interpretada: lo que se buscaba es una señal procedente de la fusión de dos agujeros negros, para así aumentar su amplitud. El estudio de dicha fusión requiere de métodos numéricos avanzados para resolver las ecuaciones de la Relatividad General de Einstein mientras que, a su vez, el progreso de la implementación de métodos computacionales permite la detección, filtrado, y estadística sobre la señal observada. Los modelos teóricos predicen que dicha fusión pasa por tres fases: una de aproximación (inspiral) donde los dos agujeros negros rotan el uno alrededor del otro sin perder su identidad, otra de fusión (merger) donde los agujeros negros alteran significativamente su forma, y una final (ringdown) donde los dos agujeros se han fusionado en uno nuevo, liberando en el proceso grandes cantidades de ondas gravitacionales con una señal muy particular…¡que encaja precisamente con lo que los nodos de Hanford y Livingston del detector LIGO midieron!.





El presente y futuro de la astronomía moderna

La detección de las ondas gravitacionales por LIGO representa el primer paso en una nueva época en la astronomía moderna. Hasta ahora nuestro conocimiento del Universo provenía del estudio del espectro electromagnético (radio, microondas, infrarrojo, visible, ultravioleta, rayos X, rayos gamma), así como de otras fuentes adicionales tales como neutrinos o rayos cósmicos. Sin embargo, existen limitaciones inherentes de la interacción electromagnética, tales como el apantallamiento debido a nubes de polvo y gas, o la imposibilidad de observar más allá de unos 380.000 después del Big Bang debido la opacidad del Universo en aquella época. Sin embargo, la astronomía de ondas gravitacionales está libre de tales limitaciones y podrá llegar más allá de donde la electromagnética no puede, y ayudar a entender mejor el Big Bang, enanas blancas, púlsares, agujeros negros, materia y energía oscura…¡e incluso testear con mayor precisión la teoría de la Relatividad General de Einstein así como teorías de gravitación alternativas a esta! A parte de LISA, otros detectores de ondas gravitacionales están en construcción o en fase de planificación. Es, sin duda, una época apasionante para ser astrofísico.


Texto de Diego Rubiera García (@rubieradiego), Investigador FCT del Instituto de Astrofísica y Ciencias del Espacio de Lisboa. 

viernes, 13 de enero de 2017

Teoría de cuerdas: viva y coleando



El dominio del espacio aéreo fue uno de los factores clave que acabarían decantado la victoria del lado de los Aliados en la II Guerra Mundial. Nunca en ningún conflicto humano tantos debieron tanto a tan pocos, dijo Winston Churchill para alabar la labor de la Real Fuerza Aérea británica en la Batalla de Gran Bretaña, la defensa de la isla ante la amenaza real de una invasión tras la casi total ocupación del continente por la Wehrmacht. Otro factor determinante para poner punto y final a la guerra, en el Frente del Pacífico, fue la decisión de Truman de arrojar sendas bombas atómicas sobre Hiroshima y Nagasaki. La participación de la comunidad científica en el esfuerzo de guerra, y en especial de los físicos en el Proyecto Manhattan que diseñaría esas bombas, es aún objeto de controversia incluso en nuestros días.



Hace unos diez años, los físicos estaban, de nuevo, en estado de guerra. Esta vez la guerra era, afortunadamente, dialéctica y, en principio, tan solo de carácter científico. La teoría de cuerdas llevaba ya más de treinta años en el candelero. Ninguna de sus predicciones se había comprobado experimentalmente y, según argumentaban los críticos, quizá nunca lo serían. La teoría de cuerdas parecía carecer de refutabilidad y, por tanto, ni siquiera debería ser calificada de teoría científica; sería todo lo contrario: una pseudociencia o, en el mejor de los casos, un pasatiempo matemático. Una célebre frase de Wolfgang Pauli, en la que desdeñaba cierta teoría refiriéndose a ella como “ni siquiera incorrecta”, se rescató para calificar así a la teoría de cuerdas. Un blog  critico surgió con ese nombre. Libros con títulos como El problema de la física se publicaron ilustrando la inutilidad de la teoría.

La guerra, como señalábamos arriba era en principio solo de carácter científico. No obstante, trascendía algo más: una batalla de influencia por el control de fondos públicos destinados a investigación. ¿Deberían las agencias de financiación de la ciencia matar la teoría de cuerdas mediante una expeditiva estrangulación presupuestaria? Por aquel entonces yo andaba, recién doctorado, de postdoc en el Imperial College de Londres, una de las plazas fuertes de la teoría de cuerdas. Recuerdo a Mike Duff, eminente cuerdista en Imperial, lamentarse amargamente de que eso podría ya por aquel entonces estar empezando a pasar. Según argumentaba Duff, la sobredifusión mediática que los críticos estaban recibiendo podría haber sido la causa del anuncio del EPSRC (una de las agencias británicas de financiación de investigación) de recortes en su programa de física matemática. Estamos hablando de recortes antes de los famosos recortes de ahora.

 
Michael Duff. Uno de ellos es físico teórico. ¿Cuál?

Aquellos episodios se han venido a conocer en el mundillo físico-teórico como las Guerras de las Cuerdas (String Wars). Aunque las hostilidades no han cesado del todo, con blogs defendiendo una  u otra postura intercambiando fuego de vez en cuando, sí es cierto que, en general, se ha rebajado el tono. Estamos, acaso, ante una guerra de salón, una phoney war. Y ello es sin duda debido a que, a pesar de todo lo escrito contra ella, la teoría de cuerdas sigue gozando de envidiable salud.





Estos días anteriores, sin embargo, hemos presenciado un remake en español de aquella Guerra de las cuerdas, que nos ha cogido con el pie cambiado. Arturo Quirantes, autor del blog El profe de física, ha lanzado una diatriba desde Cuaderno de cultura científica que nos informa del “ocaso de la teoría de cuerdas”. Los que trabajamos en esta teoría hemos llegado ahora a comprender la mayúscula sorpresa de Mark Twain al leer su obituario y conocer así, por la prensa, la noticia de su propia muerte. Afortunadamente podemos salir al paso, como Twain, de semejante contrariedad: todo apunta a que las noticias que Quirantes trae sobre la muerte de la teoría de cuerdas “son desmesuradamente exageradas”.

Los comentarios de Quirantes ya han recibido la certera respuesta de Enrique Fernández Borja en Cuentos Cuánticos. Aquí, en LA FÍSICA DEL GREL, hemos iniciado una serie de posts (aquí y aquí en especial, aunque también aquí) sobre unificación, que nos conducirán a describir más detalladamente la teoría de cuerdas. Entraremos en materia en sucesivos posts. Mientras tanto, movidos por el afán de ofrecer al público una visión alternativa sin catastrofismos, y sin el menor ánimo de reeditar en español una futil Guerra de las Cuerdas, sí creemos pertinente contestar someramente desde nuestro blog a las críticas.

Tanto es que pretendemos evitar toda confrontación que comenzamos con lo que a nadie en los debates tan de moda en prime time televisivo se le pasaría por la cabeza: una sincera autocrítica. Tampoco es ningún mérito, dicho sea de paso, empezar así para el que esto escribe. Salvo por pequeñajos que, ay, nos dan la tabarra nocturna, mi generación duerme muy bien por las noches sabiéndose libre del pecado que pasamos a confesar.

Según me cuentan mis mayores, pues mis intereses científicos en aquella época se limitaban a los prescritos para la EGB y el BUP por las autoridades educativas competentes, durante los años ochenta y noventa, la época en la que se cimentaron los pilares de la teoría de cuerdas, hubo una desmesurada sobrevaloración de objetivos. Imperaba una sensación de euforia y se pensaba que la teoría de cuerdas sería capaz de reproducir la física de altas energías conocida, así como de describir cuánticamente la gravitación en unos pocos años. No en vano, había quien se refería a las cuerdas como la “Teoría del Todo”, mediático amén de pretencioso nombre que seguramente llenaba a la realeza del ramo, como a la otra, de gran orgullo y satisfacción. Hoy, sin embargo, me atrevería a decir que incluso los más acérrimos defensores de la teoría de cuerdas reconocen que todo aquello fue una gran sobreactuación. Podríamos incluso decir que aquel fenómeno pudo ser el equivalente científico de una burbuja financiera. Muchas de las críticas a la teoría de cuerdas, incluidas la mayoría de las de Quirantes en su post, realmente no pasan de ser una reacción superficial a esa sobrexposición.

Burbujas científicas las ha habido con anterioridad en ciencia en general y en física, la rama que nos ocupa, en particular. Mencionaré dos que son, de hecho, similares a la burbuja de los ochenta y noventa en teoría de cuerdas. A finales del siglo XIX, con la teoría de Newton de la gravitación completamente desarrollada y con las ecuaciones de Maxwell del electromagnetismo recién escritas, se dieron las condiciones para la formación de una gran burbuja. Cuajó la idea de que en Física estaba ya todo hecho. El único trabajo que quedaba por hacer era añadir decimales a las mediciones de constantes y cantidades físicas, medirlas con más precisión. ¿Que la órbita de Mercurio no terminaba de cuadrar con la ley gravitatoria de Newton del inverso del cuadrado? Menudencias. ¿Que las leyes en boga daban resultados absurdos, a alta energía, para la radiación de cuerpo negro? Ya se arreglaría el asunto sin mayores sobresaltos. La burbuja decimonónica estalló por todo lo alto cuando, ni bien entrado el siglo XX, la Relatividad General y la Teoría Cuántica pusieron la física patas arriba. Hasta nuestros días.



Con cuerdas también se pueden hacer burbujas muy grandes.


A mediados del siglo XX se desarrolló otra burbuja. La teoría cuántica y la relatividad especial de principios de siglo se habían desarrollado enormemente, y su combinación había dado lugar a la llamada teoría cuántica de campos. Se sabía que la teoría de Maxwell del electromagnetismo, aun siendo clásica, se amoldaba a la relatividad especial. La teoría cuántica de campos era, pues, la herramienta perfecta para estudiar la cuantización del electromagnetismo. Y efectivamente, la teoría cuántica resultante, llamada Electrodinámica Cuántica, proporcionaba resultados espectaculares, con fastuoso acuerdo de hasta muchas cifras decimales entre cantidades calculadas mediante la teoría y medidas experimentalmente. El trabajo de físicos como Richard Feynman fue determinante para ello. Feynman introdujo sus famosos diagramas, el método que permitió realizar tales cálculos. Así pues, pronto se extendió la delirante idea de que todo en teoría cuántica de campos se reducía al cálculo de diagramas de Feynman y, salvo cálculos más o menos engorrosos, estaba ya todo hecho. Sin embargo, cuando se hicieron patentes los fenómenos no-perturbativos en teoría de campos, imposibles de abordar por esos métodos, la burbuja inevitablemente estalló. Por ejemplo, a acoplamiento fuerte, tiene poco sentido calcular procesos entre quarks y gluones (de las que ya hemos hablado aquí) mediante diagramas de Feynman.

Es indudable que estas burbujas, tanto en ciencia como en economía, son producto de la naturaleza humana. Ahora bien, si las burbujas financieras tienen las devastadoras consecuencias que lamentablemente conocemos y padecemos, en ciencia siempre parecen dejar algo positivo. Por un lado, el conocimiento acumulado durante la burbuja no tiene por qué ser incorrecto. La teoría de Newton y la teoría de Maxwell no son incorrectas. Lo que sucede es que se ven englobadas, como límites, en teorías más precisas. Los diagramas de Feynman no son incorrectos, tan solo tienen sus límites de aplicabilidad. Por otro lado, el estallido de las burbujas suele dejar un terreno fértil para la exploración: la física de agujeros negros, de ondas gravitacionales o la cromodinámica cuántica serían imposibles sin desarrollos anteriores.

Es generalizado el convencimiento de que todo esto aplica, también, a la teoría de cuerdas. Nadie que se dedique a investigación en cuerdas hoy en día piensa seriamente en la teoría de cuerdas como una “Teoría del Todo”, a pesar de que los críticos insistan en abundar en el tópico. Esto no quita para que el desarrollo formal de la teoría invoque, como hacemos desde este blog, ideas de unificación que tan provechosas se han demostrado en física. Dada la experiencia con situaciones como las descritas arriba, no creo que nadie en el campo esté muy preocupado con que la teoría de cuerdas, ahora, después de la burbuja, pueda ser incorrecta. Ni qué decir tiene que, los que nos dedicamos a ella, pensamos que es correcta, a pesar de todas las dificultades experimentales que entraña dilucidar tal cuestión. En el peor de los casos, pensamos, la teoría se amoldará a otra “más correcta”, como en situaciones anteriores.

Quirantes traza un paralelismo entre la teoría de cuerdas y los epiciclos ptolemaicos que induce a error. Como describe Steven Weinberg en su reciente libro Explicar el mundo, la adición de más y más epiciclos a la teoría geocéntrica es un problema de fine tuning. Algo anda mal en una teoría cuando se le han de añadir ornamentaciones más y más barrocas para hacerla cuadrar, en frágil equilibrio, con los datos experimentales. El caso de la cada vez mayor complicación en teoría de cuerdas, desde su humilde suposición fundacional de que los constituyentes básicos de la materia son objetos unidimensionales en vez de partículas, hasta la sofisticada teoría que conocemos hoy, es bien distinto. La complicación, por ejemplo, de tener cinco teorías de cuerdas no busca realizar, como los epiciclos, ajustes artificiales. Por contra, se trata del mismo efecto que el descrito arriba en relación con la teoría cuántica de campos: cada vez conocemos mejor la teoría y sus sectores perturbativos (donde podemos usar métodos como los de Feynmann) y no-perturbativos. Que a uno le parezcan extraños nombres como “cuerda tipo I” o “cuerda heterótica” queda a gusto de cada cual. A mi modo de ver, tan colorida nomenclatura es digna sucesora de otras como “quark top” (del que, por cierto, hemos hablado aquí).

Aspectos como supersimetría, de la que hablaremos en el blog, son deseables en teoría de  cuerdas. Que supersimetría no se haya detectado en el CERN no supone el menor problema para la teoría: este efecto no tiene por qué notarse a las escalas de energía exploradas por el acelerador LHC. La única crítica seria hecha por Quirantes se refiere al llamado problema del landscape, del que también hablaremos. Aquí, efectivamente, mete el dedo en la llaga pues nadie excepto los entusiastas del multiverso saben muy bien cómo proceder. El convencimiento general es que el asunto acabará arreglándose sin necesariamente refutar la teoría de cuerdas, como en los casos que mencionábamos arriba.


Partículas elementales y sus compañeras supersimétrícas (izquierda). Representación del multiverso (derecha).



Ya hemos dicho en LA FÍSICA DEL GREL que el Modelo Estándar y la Relatividad General son las construcciones científicas, verificadas experimentalmente, más sofisticadas y precisas que el ser humano ha logrado hasta ahora (más detalles aquí). La teoría de cuerdas ha de englobar a las dos y, desde luego, las supera en elegancia y sofisticación. Se ha dicho que la teoría de cuerdas es ciencia del siglo XXI con la que los físicos se toparon en el XX. En este sentido, la teoría de cuerdas es como el museo Guggenheim de Bilbao: un soberbio edificio del siglo XXI levantado, realmente, en el XX. A uno le puede causar cierto desasosiego las líneas futuristas del edificio, y en un arrebato clasicista podría secretamente desear que se pareciera más, por ejemplo, al renacentista palacio de Carlos V en Granada. Sea lo que sea la teoría de cuerdas, es sin duda un bello edificio en construcción que solo en el futuro podemos aspirar a admirar en su totalidad. En ningún caso se trata del edificio ruinoso que a Quirantes se le antoja.

Como científicos del siglo XXI, nos corresponde desarrollar, entender y extraer consecuencias de la teoría de cuerdas. Ya hemos contado aquí cómo la teoría de cuerdas fue crucial para obtener una descripción microscópica de la entropía de agujeros negros. Como contaremos en sucesivos posts, las contribuciones de la teoría a aspectos en teoría cuántica de campos e incluso en terrenos tan alejados como matemática pura o física de la materia condensada son espectaculares.

A tenor del sobredimensionado eco mediático que acompañó a los críticos durante las Guerras de las cuerdas, podríamos decir que nunca en ningún conflicto científico tan pocos causaron tanto perjuicio a tantos. Aún desconocemos si la teoría de cuerdas tendrá la última palabra en una descripción más profunda de la naturaleza, o si algún bombazo científico al estilo de los atómicos de Hiroshima o Nagasaki convulsionará la física, en el contexto de la teoría de cuerdas o, no lo creo, fuera de ella. En todo caso, el "espacio aéreo" de la física teórica de alta energía sigue dominado, por méritos propios, por la teoría de cuerdas. Tenemos por delante pues el excitante cometido de explorar las consecuencias de una teoría que, ahora más que nunca, está viva y coleando.

Texto de Oscar Varela.

martes, 10 de enero de 2017

Radiación Hawking y agujeros negros acústicos


Este mes de enero de 2017 la revista Muy Interesante, de la cual he sido fan desde pequeñito, ha publicado un artículo "muy interesante" sobre agujeros negros y la posibilidad de estudiarlos en laboratorio. La autora del artículo, Laura Chaparro, me pidió que opinara sobre el tema y ahora que su artículo ya está publicado, creo que es buen momento para extenderme en este blog con algunos detalles adicionales. Por supuesto, aquí sólo daré mi opinión. Para ver qué opinan otros expertos os recomiendo que leáis el artículo de Laura.

El interés en este tema surge de un artículo publicado por la revista Nature el pasado mes de agosto de 2016 (aquí una versión gratuita). En ese artículo, Jeff Steinhauer, físico experimental en el Instituto Tecnológico de Israel (Technion), describía un experimento suyo que podría representar la primera detección directa de una radiación análoga a la que hace ya  más de 40 años Stephen W. Hawking predijo que deberían emitir los agujeros negros. Intentaré explicar de manera resumida lo que se cuenta en aquel artículo.


Stephen Hawking y Jeff Steinhauer

Al contrario que otros físicos, los que trabajamos en gravitación estamos muy limitados a la hora de hacer experimentos. Cuando hablamos de entender o verificar propiedades cuánticas, muy sutiles, de objetos como los agujeros negros, la situación se complica aún más. Es por ello que cualquier simplificación o sistema más manejable que tenga comportamientos similares será de gran ayuda. Ahí es donde radica la importancia de encontrar situaciones reproducibles en laboratorio que permitan verificar si algunas de las predicciones fundamentales de nuestras teorías son reales o no. 

¿Qué descubrió Hawking? Hawking se planteó qué le ocurriría a un agujero negro si en el universo hubiera partículas con propiedades cuánticas (como los electrones y protones de los que estamos hechos, que son partículas cuánticas). Si las partículas NO fueran cuánticas, un agujero negro podría vivir eternamente. Su única diversión sería tragar cualquier cosa que pasara cerca de su horizonte de sucesos. Este horizonte es una superficie imaginaria que marca la separación entre "dentro y fuera". Una vez se cruza el horizonte ya no es posible salir.  Sorprendentemente, al considerar efectos cuánticos, el agujero negro comienza a emitir partículas cuánticas como si fuera un horno a cierta temperatura. Esta emisión implica que el agujero negro pierde energía y, por tanto, pierde masa. Aunque la pérdida de energía es minúscula, esperando suficiente tiempo, un agujero negro aislado debería evaporarse por completo, lo cual genera una serie de problemas conceptuales muy serios (pérdida de información cuántica) que aún están por resolver. 

Como hoy por hoy no es posible (ni aconsejable) ponerse a hacer experimentos cerca de un agujero negro, lo esencial para verificar si la radiación cuántica predicha por Hawking es real (o plausible) es tratar de encontrar situaciones en las que surjan "horizontes" en escenarios con propiedades cuánticas. Ahí es donde entran en juego los llamados "horizontes acústicos". En lugar de fabricar agujeros negros con todas sus complicaciones, es más factible generar horizontes y estudiar sus propiedades.


Si nada puede escapar de un agujero negro, todo debe salir de un agujero blanco. La región plana de esta imagen muestra un análogo de agujero blanco. El anillo a partir del cual aparecen ondas sería el horizonte de sucesos del agujero blanco.


El horizonte de sucesos de un agujero negro tiene un efecto similar al del agua de un río cerca de una catarata. Como la velocidad del agua aumenta al acercarnos a la catarata, si no nadamos a contracorriente lo suficientemente rápido, el agua nos arrastrará. El lugar donde la velocidad del nadador es igual a la "velocidad de arrastre" marca lo que sería el horizonte. Si en lugar de un nadador en un río consideramos la propagación de ondas acústicas (sonido)  en un fluido en movimiento, entonces hablamos de un horizonte acústico: habrá un lugar a partir del cual el sonido es arrastrado por el flujo, sin posibilidad de escapar contracorriente. Ningún ruido producido en esta región interna podrá ser percibido por encima del horizonte acústico.

Jeff Steinhauer lleva años tratando de demostrar experimentalmente que los horizontes acústicos producidos en fluidos cuánticos en movimiento emiten radiación similar o análoga a la que Hawking predijo para los agujeros negros astrofísicos. Los cálculos de Hawking demuestran que la intensa gravedad de un agujero negro puede crear pares de partículas a partir del vacío cuántico. Uno de los miembros del par surge en la parte externa del horizonte y consigue escapar, mientras que el otro elemento del par cae hacia el interior. La energía necesaria para crear el par de partículas la proporciona el agujero negro, y como uno de los miembros escapa, el agujero negro pierde masa (que es una forma de energía). Esto implica que los agujeros negros se evaporan.

Las partículas que componen cada par están correlacionadas, es decir, tienen propiedades complementarias: si la partícula que sale tiene carga positiva y gira sobre sí misma en el sentido de las agujas del reloj, entonces la que cae al agujero negro debe tener  carga negativa y girar en el sentido opuesto. Este ejemplo ilustra que lo que cae y lo que sale no son independientes, sino que están ligados (o correlacionados).

En el caso de los agujeros negros astrofísicos, sólo sería posible medir el flujo de partículas que salen despedidas desde el horizonte hacia el exterior, pues una vez cruzado el horizonte no habría posibilidad de salir de él. Si alguien intentase medir lo que hay en el interior, no sobreviviría para contarlo ni podría transmitir esa información a nadie en el exterior. Sin embargo, en los horizontes de laboratorio (acústicos en nuestro caso) no existe ese problema, por lo que pueden plantearse otro tipo de medidas que involucren tanto a la radiación que sale del horizonte como a la que cae dentro de él. Steinhauer ha aprovechado esta vía para “alcanzar” su objetivo.

Horizonte acústico y su correspondencia con un agujero negro.
¿Cómo fabricamos un horizonte acústico? Esto se puede visualizar pensando en una tubería por la que fluye un cierto líquido o gas y cuyo grosor se estrecha a partir de un cierto punto. Al estrecharse el tubo, la velocidad del fluido aumenta. Si ese aumento es tal que el fluido se mueve más rápido que el sonido, entonces hemos formado un horizonte acústico. Si esto ya parece difícil de por sí, ¡imaginaos si hay que hacerlo con un fluido cuántico!


En lugar de un fluido cualquiera, Steinhauer ha utilizado un condensado de Bose-Einstein (BEC, por sus siglas en inglés). El BEC es un estado de la materia que surge cuando un líquido o gas muy diluido se enfría a temperaturas cercanas al cero absoluto (-273.1 ºC). En esas condiciones, el sistema manifiesta propiedades cuánticas sin necesidad de tener un tamaño microscópico. 



Haciendo barridos con un láser a través del BEC es posible generar un horizonte acústico. Al tratarse de un fluido cuántico, por mecanismos similares a los que descubrió Hawking, se crean pares de partículas correlacionadas a ambos lados del horizonte.  En el caso del BEC, las “partículas” (o excitaciones elementales del medio) generadas por el horizonte se llaman fonones, y representan a las “ondas acústicas” elementales (o sonido) que se propagan por el condensado [aquí es útil notar que si las ondas electromagnéticas (luz) tienen asociada una partícula cuántica llamada fotón, las ondas acústicas pueden verse como hechas de fonones]. Esas ondas acústicas generan pequeñas fluctuaciones en la densidad del condensado a ambos lados del horizonte. Midiendo esas pequeñas fluctuaciones y estudiando las correlaciones que existen entre ellas (a ambos lados del horizonte), Steinhauer ha encontrado indicios compatibles con lo que se esperaría si el horizonte acústico generase radiación Hawking.


Correlaciones medidas por Steinhauer (izquierda) comparadas con la predicción teórica (derecha).


Hay que tener en cuenta que los fonones de radiación Hawking en el BEC se podrían mezclar/combinar con muchas otras fuentes de ruido (ondas acústicas) presentes en el BEC. Medir estas cosas y extraer de ahí la señal que corresponde a la radiación Hawking no es nada fácil. Por esta razón es tan importante estudiar las correlaciones entre los dos lados del horizonte, porque los pares de partículas de la radiación Hawking tienen unas correlaciones muy características. Steinhauer ha medido un patrón de correlaciones compatible con lo que se esperaría en un condensado de este tipo si hubiera radiación Hawking. Tratar de medir sólo la radiación saliente es, hoy por hoy, imposible. Es por ello que hay que recurrir al estudio de las correlaciones a ambos lados del horizonte.

Aunque la interpretación de los datos experimentales ha sido criticada duramente por otros expertos en el tema, lo importante es que el estudio de las propiedades cuánticas de horizontes ya no es una cuestión puramente matemática. El salto al laboratorio ha sido posible gracias al ingenio de algunos físicos teóricos y a la habilidad de otros tantos físicos experimentales. El procedimiento a seguir en laboratorio está bien definido desde hace ya varios años y, a mi entender, Steinhauer ha conseguido verificar la existencia de radiación Hawking. Por supuesto, es necesario repetir los experimentos para verificar las observaciones y mejorarlos para confirmar con mayor precisión las predicciones teóricas. Lo que aprendamos en el camino nos ayudará a entender mejor la naturaleza y nos hará vivir momentos muy emocionantes.

Texto de Gonzalo Olmo (@gonzalo_olmo).