miércoles, 20 de diciembre de 2017

Supersimetría


A pocos días de las entrañables fiestas navideñas, cuñados de todo el mundo preparan ya minuciosamente su batería de asuntos polémicos con los que dar la tabarra durante la habitual sucesión de ágapes de estas fechas. Corea del Norte, la Administración Trump, el Brexit y, por supuesto, Cataluña, serán sin duda los temas estrella de estas Navidades. Hoy, desde La Física del Grel, queremos contribuir a alimentar estas amenas tertulias, y en especial las que, sin duda en gran número, discurran por derroteros científicos. Con ese noble propósito, y sin intención de contribuir a deteriorar o incluso a terminar de dinamitar las no siempre cordiales relaciones familiares, continuamos en este post con nuestra serie sobre unificación y teoría de cuerdas. Posts anteriores en esta serie son Unificacion, Modelo Estándar, Viva y Coleando. Hoy hablaremos, como la ocasión merece, de un tema no menos polémico: la supersimetría.


Comencemos, no obstante, y como cualquier cena civilizada de Nochebuena, evitando de entrada la confrontación. Glosemos, pues, las propiedades ampliamente aceptadas de este concepto. Estas no son otras que las que emanan de la palabra despojada de su prefijo: simetría. En efecto, desde los tiempos de Maricastaña, y de la notable matemática alemana Emmy Noether, las llamadas simetrías desempeñan un papel central en la formulación de las leyes físicas. Todos tenemos una idea intuitiva del significado cotidiano del término. Por ejemplo, un dibujo de la cara de Mickey Mouse es perfectamente simétrico porque consta de dos porciones, izquierda y derecha, que se pueden llevar a coincidir doblando el papel por la mitad. Podríamos decir que Mickey y su lozano careto permanecen invariantes bajo la operación, no exenta de riesgo, de doblar el papel por la mitad.


El concepto de simetría en física es exactamente el mismo, si bien adaptado al lenguaje matemático del que la Naturaleza se sirve, como ya apuntó el gran Galileo, para expresar sus Leyes. Una teoría física presenta una simetría cuando las ecuaciones que la describen no cambian, es decir, permanecen invariantes, bajo ciertas operaciones matemáticas. Estas operaciones no son más que formalizaciones del concepto de doblar el papel por la mitad. Las simetrías en física tienen la importante consecuencia de implicar leyes de conservación, es decir, la existencia de cantidades en un sistema físico que permanecen inmutables bajo la evolución dinámica. El famoso eslogan de que “la energía ni se crea ni se destruye” es una manifestación de cierta simetría que ha de existir en un sistema para que eso sea efectivamente así.

Por ejemplo, la simetría responsable de la conservación de la energía es la invariancia en el tiempo de las ecuaciones que rigen su evolución: esas ecuaciones son las mismas en este preciso momento, que dentro de diez minutos, que dentro de diez mil millones de años. Ojo, esto no quiere decir que el sistema no pueda evolucionar en el tiempo; solo implica que las ecuaciones que describen esa evolución no pueden ellas mismas evolucionar. Otro ejemplo relacionado lo proporciona la Primera Ley de Newton: el movimiento de un objeto libre de fuerzas es rectilíneo y uniforme. La simetría que subyace en este caso es la invariancia del sistema en cuestión bajo traslaciones espaciales.

Estos dos son ejemplos de simetrías de sistemas físicos que emanan realmente de su existencia en el espacio (la primera ley de Newton), y en el tiempo (la energía). Puesto que espacio y tiempo son nociones muy familiares, las simetrías asociadas con ellas también nos resultan intuitivas. Sin embargo, no todas las simetrías que un sistema físico puede poseer derivan de conceptos espacio-temporales. La supersimetría es un tipo de simetría que no está asociada directamente, aunque sí de forma indirecta, con las nociones de espacio y tiempo. Conviene insistir, no obstante, en que supersimetría es un tipo concreto de simetría en el mismo sentido en el que estamos tratando. A pesar de las connotaciones del prefijo “super”, no se trata de algo que vaya más allá o sea superior de algún modo.

El hecho de que supersimetría no esté directamente relacionada con nociones espacio-temporales no quiere decir que no sea fácil de comprender. Al contrario, se trata de la siguiente sencilla idea. Este mundo es binario en lo que respecta a su composición a grandes rasgos: algo o bien es materia o bien es interacción. Supersimetría es la simetría que resulta de intercambiar materia por interacciones. Dicho así suena realmente bizarro, así que permitidme que introduzca un ligero tecnicismo que, sin embargo, hará la descripción más llevadera. En física de partículas, hay dos tipos de ellas: bosones y fermiones. Las primeras son los “cuantos” de las interacciones, mientras que las segundas son los bloques que componen la materia. Cuando hablábamos del Modelo Estándar, todos los tipos de materia que ya mencionamos (leptones y quarks) son fermiones. Y todos los tipos de cuantos de interacción de los que hablamos (fotones, Zs, etc), son bosones. Una teoría física es supersimétrica cuando sus ecuaciones son insensibles al intercambio de bosones y fermiones. Ni más ni menos, ni menos ni más.


Ahora bien, no hay nada en la vida que salga gratis y, en particular, que una teoría sea supersimétrica tiene un precio. Por lo pronto, es de cajón que una teoría solo puede ser supersimétrica en sentido estricto si satisface que el número de bosones que contiene es el mismo que el número de fermiones. Solo así puede tener la teoría en cuestión alguna opción de quedarse como está al intercambiar los unos por los otros. Consideremos en concreto el Modelo Estándar. Si la supersimetría existe, asociados a los electrones y a los quarks, fermiones todos ellos, han de existir sus correspondientes compañeros supersimétricos. A estos se les suele llamar selectrones y squarks, con la s de supersimetría. Y asociados a los fotones y a los gluones, bosones ellos, han de existir sus correspondientes partículas fermiónicas: los fotinos y los gluinos. El Modelo Estándar será una teoría supersimétrica si sus ecuaciones permanecen invariantes al intercambiar electrones por selectrones, gluones por gluinos, etc.

Y efectivamente, se pueden escribir matemáticamente versiones supersimétricas del Modelo Estándar que cumplan con este requisito. La cuestión es si esas versiones describen o no la realidad, es decir, si se pueden validar experimentalmente. Por ejemplo, se sabe experimentalmente que el Modelo Estándar cumple a rajatabla con la conservación de la energía. También cumple la versión adecuada de la Primera Ley de Newton. Es por ello que no existe controversia alguna acerca de la existencia de estas simetrías. Sin embargo, hasta la fecha, no se han detectado ni selectrones, ni squarks, ni gluinos, ni nada de nada que tenga remotamente que ver con supersimetría. Y ello a pesar de ser uno de los objetivos prioritarios de los aceleradores de partículas actuales, como el LHC en el CERN. 


Ante la ausencia de verificación experimental, muchos físicos aducen que la idea de supersimetría es claramente errónea. Otros físicos, sin embargo, insisten en que el mundo puede aún ser supersimétrico, si la supersimetría se manifiesta de alguna manera más sutil. Los primeros acusan a los segundos de negar la evidencia experimental, y los segundos a los primeros de obstinarse en aceptar solo la interpretación más estrecha del término. Puesto que supersimetría es un ingrediente de la teoría de cuerdas, los primeros le niegan validez experimental a la teoría basándose en la ausencia de prueba experimental de supersimetría. En cualquier caso, como pasa incluso en las mejores familias, la polémica está servida. 

Reiteremos que no es nuestra intención que nuestros lectores terminen tirándose el turrón de Alicante (el duro) a la cabeza a cuenta o no de la existencia de supersimetría. Concluyamos, pues, con un mensaje de cordialidad y tranquilidad. Es cierto que  la supersimetría ha sido prácticamente excluida a las escalas que podemos observar en aceleradores. Pero acordemos que ello no implica que los compañeros supersimétricos no se manifiesten a mayores escalas de energía. Y convengamos en que ello no falsifica la teoría de cuerdas, puesto que la escala de supersimetría en ella es todavía mayor, del orden de la escala de Planck.


Y con este mensaje esperanzador, despedimos 2017 desde La Física del Grel. 

¡Feliz Navidad y Prospero Año Nuevo!

Texto de Óscar Varela (Utah State University, Estados Unidos, e IFT, Madrid, España). El trabajo de Óscar Varela está financiado por la National Science Foundation de Estados Unidos mediante el grant PHY-1720364. .



lunes, 11 de diciembre de 2017

SMARTPHYSICS: Experimenta con los Sensores de tu Smartphone



Por favor, apaguen sus teléfonos móviles” suele ser una de las frases más utilizadas tanto por los profesores de Física como de otras muchas materias para evitar que los alumnos se distraigan y presten atención en clase. Pero, ¿y si se pudiera dar la vuelta a la tortilla? ¿Y si pudiéramos utilizar los Smartphone de los propios alumnos para motivarles por la Física?

En la sociedad digital actual es imprescindible introducir los llamados “dispositivos inteligentes” (tabletas y Smartphones) en el entorno educativo, permitiendo que el proceso enseñanza-aprendizaje sea mucho más atractivo para los estudiantes y que además permitan el desarrollo de competencias transversales como es la capacidad de análisis y de innovación. La simulación de procesos físicos a través de laboratorios virtuales sería la vía de integración de estos dispositivos en el aula. Como veremos a continuación, también se pueden utilizar los Smartphones de los propios alumnos como instrumento de medida en prácticas de laboratorio reales (fuera del mundo virtual) gracias a sensores que llevan integrados estos dispositivos. 

Tradicionalmente, en las prácticas de laboratorio de Física los alumnos estudian desde el punto de vista experimental las leyes que han trabajado previamente en clase. Así pues, el objetivo de las prácticas de laboratorio es doble: por un lado reforzar los conocimientos teóricos adquiridos en las clases de teoría, y por otro lado habituarse a las técnicas experimentales propias de laboratorio (manejo de aparatos de medida, toma de datos experimentales, análisis de datos experimentales, cálculos de incertidumbres, etc.). Sin embargo, en numerosas ocasiones, los alumnos encuentran rutinarias y poco enriquecedoras las prácticas de las asignaturas relacionadas con la Física, lo que conlleva que no se muestren interesados en las mismas. Tratan de realizar las mínimas medidas exigidas por el profesor lo antes posible para poder terminar la práctica a la mayor brevedad, de manera mecánica, y sin reflexión crítica sobre el trabajo realizado.

Para intentar paliar este tipo de problemas y hacer más atractivas las prácticas de Física podemos encontrar en la literatura científica reciente propuestas en las que se utilizan diversos recursos electrónicos con sensores de movimiento como son los mandos de Nintendo Wii [1] o de la Xbox [2]. El controlador de Nintendo Wii permite registrar los movimientos simultáneos de varios objetos mediante conexión Bluetooth y explota el uso de tres acelerómetros para seguir los movimientos tridimensionales. El sensor Kinect de la Xbox posibilita el rastreo de datos en 3D sobre una base de tiempos. Sin embargo, ambos dispositivos requieren un software específico que no está ampliamente disponible en los laboratorios de Física.

En este contexto, surge en 2013 la iniciativa SMARTPHYSICS impulsada por la Universitat Politècnica de València con la intención de extender el uso de los sensores de Smartphone en el área de la Física experimental y la Tecnología a diferentes niveles educativos, principalmente en los primeros cursos de universidad y en bachillerato.

Así pues, SMARTPHYSICS pretende generar una nueva perspectiva en el ámbito educativo, introduciendo los Smartphones de los propios alumnos como un nuevo elemento motivador en el aula, integrándolo en las prácticas de Física como dispositivo de medida y toma de datos a través de los sensores que incorporan (acelerómetro, sensor de luz, sensor de campo magnético…). Los alumnos están acostumbrados a utilizar el teléfono móvil en su entorno social, y que vean que puede ser útil también como dispositivo de medida, despierta su curiosidad e interés. Los sensores que incorporan estos dispositivos son cada vez de mejor calidad y por un precio cada vez más reducido. Además, también hay multitud creciente de aplicaciones (Apps) libres para controlar los sensores integrados en estos dispositivos y poder registrar los datos que proporcionan. 


Se trata de una línea de investigación muy reciente e innovadora, ya que la primera propuesta “telefónica” fue publicada a nivel preuniversitario en 2012 [3]. El grupo de trabajo SMARTPHYSICS fueron los pioneros en extender el uso del Smartphone a nivel universitario con experiencias de carácter mucho más cuantitativo en las que los alumnos han de realizar un análisis riguroso de las medidas obtenidas a través de los sensores. En concreto, la primera propuesta universitaria fue publicada en la revista American Journal of Physics editada por la American Association of Physics Teachers [4]. Mediante el sensor de aceleración de un Smartphone se han podido caracterizar oscilaciones libres y amortiguadas.




También con el acelerómetro se pueden caracterizar oscilaciones acopladas, oscilaciones forzadas, movimientos circulares etc. Utilizando el altavoz del smartphone y una APP adecuada se puede caracterizar con precisión el efecto Doppler (el cambio de frecuencia aparente de una onda acústica producida por el movimiento relativo de la fuente respecto a su observador) [6]. Diversos autores han presentado también experiencias muy interesantes con los Smartphones, como por ejemplo la caracterización de pequeños imanes con el sensor del campo magnético [7]. Entre las propuestas más recientes de SMARTPHYSICS se puede destacar el estudio de la eficiencia luminosa de una lámpara con el sensor de luz ambiente de un Smartphone [8]. 


SMARTPHYSICS también tiene una vertiente en ESO y Bachillerato. Cada verano el Campus de Excelencia Internacional de Valencia VLC/Campus de Valencia organiza un Campus Científico promovido por la Fundación Española para la Ciencia y la Tecnología (FECYT). Dentro de este campus científico, desde hace cuatro años, alumnos brillantes de 4º de la ESO y 1º de Bachillerato participan en taller “Experimenta la Física con tu Smartphone” que se desarrolla en la Escuela Técnica Superior de Ingeniería del Diseño de la Universitat Politècnica de València. En este taller los alumnos aprovechan gran parte de los sensores de sus móviles para realizar sencillos experimentos de Física adaptándolos a su nivel educativo. Por ejemplo, mediante el acelerómetro son capaces de registrar el movimiento armónico simple del Smartphone colgando de un muelle y determinar el periodo de oscilación en función de la masa del sistema.




Mediante el sensor de campo magnético de los smartphones y con una aplicación adecuada que transforma el teléfono en una brújula, los jóvenes ven cómo se desvía la orientación de la brújula por el campo magnético creado por la corriente de un cable.




En este taller de hora y media de duración, los alumnos también miden la intensidad de luz de una bombilla halógena en función de la distancia utilizando el sensor de luz ambiente de sus Smartphones. De esta forma, son capaces de verificar lo que se conoce como la ley de inverso del cuadrado de la distancia (que si duplicamos la distancia a la fuente de luz, la intensidad luminosa decae en un factor cuatro).




En definitiva, todas las experiencias desarrolladas se enmarcan en asignaturas de Física de los primeros cursos de universidad, pero con alguna simplificación de la base teórica y del análisis de datos resultan también adecuadas para educación pre-universitaria. 



Texto de Juan A. Monsoriu, Doctor en Física por la Universitat de València y Catedrático de Física Aplicada de la Universitat Politècnica de València.




[1] S. L. Tomarken, D.R. Simons, R.W. Helms, W.E. Johns, K.E. Schriver y M.S. Webster, “Motion tracking in undergraduate physics laboratories with the Wii remote”, American Journal of Physics 80, 351-354 (2012).

[2] J. Ballester y Ch. Pheatt, “Using the Xbox Kinect sensor for positional data acquisition”, American Journal of Physics 81, 71-77 (2013).

[3] J. Kuhn y P. Vogt, “Analyzing spring pendulum phenomena with a smart-phone acceleration sensor”, The Physics Teacher 50, 504 (2012).

[4] J.C. Castro-Palacio, L. Velázquez-Abad, M.H. Giménez y J.A. Monsoriu, “Using a mobile phone acceleration sensor in physics experiments on free and damped harmonic oscillations”, American Journal of Physics 81, 472-475 (2013).

[5] http://smartphysics.webs.upv.es/ (ver apartado de publicaciones).

[6] J.A. Gómez-Tejedor, J.C Castro-Palacio y J.A Monsoriu, “The acoustic Doppler effect applied to the study of linear motions”, European Journal of Physics, 35 025006 (2014).

[7] E. Arribas, I. Escobar, C.P. Suarez, A. Najera y A. Beléndez, “Measurement of the magnetic field of small magnets with a smartphone: a very economical laboratory practice for introductory physics courses”, European Journal of Physics 36, 065002 (2015).



[8] J.A. Sans, J. Gea-Pinal, M.H. Gimenez, A.R. Esteve, J. Solbes y J.A. Monsoriu, “Determining the efficiency of optical sources using a smartphone’s ambient light sensor”, European Journal of Physics 38, 025301 (2017).

viernes, 10 de noviembre de 2017

Día Internacional de la Física Médica

El pasado día 7 de noviembre, la Sociedad Española de Física Médica (SEFM), en colaboración con el Instituto Polaco de la Cultura, han organizado una jornada divulgativa en la Real Academia de Ciencias Exactas Físicas y Naturales de Madrid, para conmemorar el Día Internacional de la Física Médica y el 150 aniversario del nacimiento de Marie Sklodowska Curie, quien fuera una pionera en el desarrollo de este campo que enlaza la Física con la Medicina.

Esta actividad ha estado enmarcada dentro de la Semana de la Ciencia de Madrid, evento de divulgación científica y participación ciudadana organizado por la Fundación madri+d que ofrece al público la oportunidad de conocer de cerca el trabajo que realizan los científicos, sus investigaciones, motivaciones y esfuerzos.


Sede de la Real Academia de Ciencias Exactas, Físicas y Naturales, fundada en 1847 en la C/ Valverde, 24 de Madrid

La presentación de la jornada ha correspondido a la Dra. María Luisa Chapel Gómez, Jefa del Servicio de Radiofísica y Protección Radiológica del Hospital Universitario Nuestra Señora de La Candelaria, en S/C de Tenerife, quien en calidad de presidenta de la SEFM procedió a destacar el papel desconocido de los físicos en los hospitales.

El programa ha constado de tres conferencias destinadas a conocer las contribuciones que la Física aporta en el avance de la Medicina, así como la labor desarrollada por los físicos en el ámbito sanitario.

La primera de las charlas ha sido a cargo del Dr. Jerzy Zieleniewski, cónsul honorario de Polonia, además de radiólogo, en representación del Instituto Polaco de la Cultura, el cual destacó durante su lectura los aspectos más reconocidos sobre la figura de Marie Sklodowska Curie, desde su dura infancia en el seno de una familia con escasos recursos económicos, pero con una gran motivación por la cultura y la ciencia en su Varsovia natal, hasta su fallecimiento en 1934, como consecuencia de los daños sufridos en su organismo, debido a su continuada exposición a las radiaciones, tras tantos años de afán descubridor.


El Dr. Zieleniewski y la Dra. Chapel, presidenta de la SEFM, durante la inauguración de la jornada homenaje a Marie Sklodowska Curie

La segunda ponencia ha sido presentada por el Dr. Pedro Fernández Letón, Jefe del Servicio de Radiofísica y Protección Radiológica del Hospital Universitario HM Sanchinarro de Madrid, titulada “Desde los orígenes de la Física Médica hasta la actualidad”.


El Dr. Fernández Letón dando inicio a la ponencia sobre la evolución histórica de la Física Médica

En el desarrollo de esta comunicación se pusieron en relieve los aspectos más destacados de la Física de las Radiaciones aplicados a la Medicina, tanto en el campo del Diagnóstico por la Imagen (evolución de los equipos de rayos X desde la radiología convencional hasta los sistemas integrados de resonancia magnética y tomografía por emisión de positrones) hasta la Terapia con Radiaciones (desde las unidades de cobalto hasta los aceleradores de partículas, incluyendo iones pesados).


El Dr. Fernández Letón expone la importancia de localizar con la máxima exactitud lesiones tratadas con altas dosis en pocas sesiones a fin de minimizar la probabilidad de complicaciones a tejido sano, maximizando la probabilidad de control tumoral
Por último, la comunicación del Dr. Hugo Pérez García, radiofísico adjunto del Hospital Quirón Salud de Madrid, ha resaltado de manera muy amena y desenfadada, la labor que los radiofísicos hospitalarios desempeñan dentro de los hospitales centrada, principalmente, en dos grandes áreas.

El Dr. Pérez García dando comienzo a su ponencia sobre la labor de un radiofísico hospitalario


La primera, corresponde a la protección radiológica de los trabajadores y miembros del público relacionadas con el empleo de unidades generadoras de radiaciones ionizantes, así como a la mejora de la calidad diagnóstica de las imágenes radiológicas, con una reducción sensible de los niveles de dosis recibidos por los pacientes.

La segunda, en colaboración estrecha con los médicos especialistas en oncología radioterápica, consiste en el empleo de éstas mismas radiaciones para el tratamiento del cáncer y otras enfermedades en el contexto de la práctica clínica de la radioterapia moderna, para lo cual se requiere de la puesta en funcionamiento de todos los equipos generadores de radiación previo a su uso clínico, así como las pruebas de control de calidad que periódicamente todas estas aplicaciones necesitan para garantizar su adecuado uso.

El Dr. Pérez García exponiendo las diferentes áreas en las que la presencia del radiofísico contribuye a la mejora asistencial en la práctica clínica

Actualmente, el empleo de radiaciones ionizantes está íntimamente ligado a la actividad médica diaria en cualquier hospital del mundo. Sin embargo, las actividades de los físicos especialistas resultan poco conocidas, tanto por los propios pacientes y demás profesionales sanitarios, como por el resto de la comunidad de físicos.

El papel que los radiofísicos hospitalarios juegan en la Medicina actual más avanzada es, cada vez, de mayor importancia. Y es que las grandes mejoras experimentadas en los últimos años, principalmente en el campo de la radioterapia del cáncer, no pueden entenderse sin reconocer la estrecha colaboración entre oncólogos radioterápicos y radiofísicos especialistas. 

Este texto ha sido escrito por Daniel Zucca, físico especialista en Radiofísica Hospitalaria, adjunto al Servicio de Radiofísica y Protección Radiológica del Hospital Universitario HM Sanchinarro (Madrid). 

lunes, 6 de noviembre de 2017

#LasCharlasDelGrel: Nano, el tamaño importa.


Seguimos este mes de noviembre con #LasCharlasDelGrel. Tras hablar el mes pasado del Modelo Estándar y el mundo de las partículas de la mano de Alberto Aparici, cambiamos de tema y nos pasamos a la Física Aplicada.

Contamos para ello con Elena Pinilla Cienfuegos, del Centro de Tecnología Nanofotónica de Valencia. Nacida en Badajoz y licenciada en Física por la Universidad Complutense de Madrid, se doctora en Nanociencia y Nanotecnología por la Universitat de València. Trabajando en Valencia desde 2008, se dedica a investigar cómo integrar nuevos nanomateriales (Grafeno y análogos) en dispositivos fotónicos para hacerlos más pequeños pero más robustos y eficientes, y también más rápidos y respetuosos con el medio ambiente, como láseres y nanoantenas con aplicaciones en telecomunicaciones o medicina, entre otros.

En su charla titulada “Nano: ¡el tamaño importa!”, Elena nos hablará de Nanociencia y Nanotecnología. Como ella misma indica: 

“El sueño de mover átomos a nuestro antojo y utilizarlos como piezas de Lego para crear nuevos súper materiales, potentes memorias magnéticas o robots miniaturizados para curar enfermedades es hoy en día una realidad gracias a la Nanotecnología y la Nanociencia. En esta nueva era de la ciencia entra en juego lo pequeño, lo muy muy pequeño, hasta 100.000 veces más pequeño que un cabello, esto es, un nanómetro. Pero...¿cómo nos las arreglamos los científicos para fabricar cosas tan pequeñas? ¿Cómo las vemos? No sólo parece insólito que hayamos llegado a conseguir dominar la naturaleza a esta escala sino que además, hemos tenido que aprender que todo lo que conocemos bien en nuestro macromundo, funciona de distinta manera en el nanomundo. Os invito a dar un paseo por él, y a descubrir qué maravillosas sorpresas nos podemos llevar simplemente por cambiar el tamaño de las cosas. Sí, el tamaño importa, y mucho".

La charla tendrá lugar el martes 14 de noviembre, a las 20:00 horas, en Ubik Café, situado en la calle Literato Azorín, nº 13, de Russafa (Valencia). ¡Os esperamos a todos!




lunes, 30 de octubre de 2017

¡Al rico atún!

El atún rojo (Thunnus thynnus) es una especie muy valorada tanto desde el punto de vista gastronómico como económico –un kilogramo de atún rojo rondará, habitualmente, los 40-50 euros en el mercado español- como también ecológico, debido a su papel en la cadena trófica y como indicador de la salud de los mares. 

La especie se vio amenazada fundamentalmente por la sobrepesca hace una década, debido a la alta demanda y a su valor en el mercado, lo cual llevó a implantar unas cuotas de pesca muy estrictas controladas por la Comisión Internacional para la Conservación del Atún Rojo (ICCAT) y las administraciones. Además de la implantación de las cuotas, también se limitó la época de pesca y la talla mínima de los individuos capturados, protegiendo los ejemplares juveniles y garantizando la reproducción antes de la captura. Estas medidas, englobadas en un plan de recuperación, han permitido un repunte de la población de atún rojo.

Las autoridades realizan el control de la cuota de pesca en los procesos de transferencia de los atunes. Los procesos de transferencia (ICCAT REC 14-04, 2014; Comisión Europea, 2015) consisten en hacer pasar a los atunes vivos desde la red en la que se encuentra (el cerco en el momento de la captura, la almadraba o la jaula, bien de transporte bien de engorde) a una nueva jaula. Los atunes capturados con cerco se transfieren a una jaula de transporte y ésta se remolca a instalaciones con jaulas de engorde (jaulas flotantes) donde se engrasan y después son sacrificados de forma individual a demanda. La almadraba captura el atún y éste o bien es sacrificado en el momento o bien es transferido a una jaula de transporte. 

El proceso de transferencia es un proceso muy complejo y delicado, tanto operacionalmente como por el riesgo de dañar a los animales –el atún rojo es una especie muy delicada y fácil de lastimar, si rozan una red probablemente destrocen su línea lateral y no sobrevivan. Consiste en aproximar las jaulas (una en la que se encuentran los atunes y la otra, a la que se van a transferir), cada una de las cuales tiene una apertura o puerta de 10x10 metros, de forma que las puertas de las dos jaulas se encaran entre ellas, se unen las jaulas y se abre la puerta, para transferir los atunes hacia la jaula receptora. Para facilitar el traslado de los atunes y asegurar que ninguno queda en la jaula original se utilizan grúas para levantar las redes y globos para espantar a los atunes hacia la dirección deseada. 

El control de la transferencia viene reglado por la Comisión Europea y la ICCAT y se realiza a partir de grabaciones de vídeo registradas por buzos altamente experimentados. Se utilizan cámaras submarinas convencionales para contar el número de individuos. Por otro lado, se utilizan también cámaras estereoscópicas para realizar el tallado de las capturas, midiendo un mínimo del 20% de los individuos y obtener la biomasa capturada. Todo este proceso se debe realizar siempre en presencia de inspectores nacionales e internacionales, que se encuentran a bordo durante los trabajos. 

El procesado de los vídeos (conteo y tallado) de los atunes se realiza de forma manual o semi-manual y es, por tanto, dependiente del operador: para el conteo el operado marca cada uno de los atunes sobre la grabación y para el tallado debe marcar la nariz y la cola de un número suficiente de individuos. Este procesado tiene, por tanto, errores asociados al operador y, además, necesita de un tiempo de procesado. Dado que se basa en grabaciones de vídeo, la visibilidad es muy determinante, y es difícil de implementar en agua muy turbia. Además, debe tenerse en cuenta que si se supera la cuota asignada,a, se deben devolver los atunes a mar abierto, con el consiguiente gasto económico e impacto sobre los animales, por lo que además del interés respecto a la sostenibilidad de la especie, existe también un interés económico en encontrar métodos alternativos, más rápidos y automatizables para el conteo y tallado de las capturas de atún.

En el marco del Proyecto BIACOP (ES/13/41) financiado por la Unión Europea, en el que participan investigadores de la Universitat Politècnica de València (UPV), pertenecientes al Grupo de Acústica Submarina del Instituto de Investigación para la Gestión Integrada de Zonas Costeras (IGIC) y al Grupo de Visión por Computador del Instituto de Automática e Informática Industrial (Instituto Ai2), así como expertos en atún rojo del Instituto Español de Oceanografía (IEO), y que ha contado con la participación del Grup Balfegó, se ha desarrollado un sistema de medida automático de la biomasa en transferencias entre jaulas de atún rojo mediante técnicas acústicas y ópticas. El dispositivo combina sistemas de medición acústica para el conteo y de visión estereoscópica para obtener medidas 3D de los atunes, y permite disminuir el margen de error de la biomasa respecto el método anterior. La parte acústica, que es de la que nos ocuparemos aquí, es la responsable del conteo de los individuos: con este sistema el error cometido es siempre inferior al 10 % (exigido por ICCAT), y habitualmente bastante menor (hasta de sólo un 1% y se acerca al 9-10% en condiciones de muy mala mar). l resultado se obtiene automáticamente en unos minutos –con lo que se podría estimar en la zona de captura directamente-, es independiente del operador y al no ser un método óptico funciona independientemente de la turbidez del agua, la posición del sol y la cantidad de luz. Ahora que ya estamos convencidos del éxito del conteo mediante las técnicas acústicas, vamos a ver cómo funciona. 

Para poder contar los atunes en el proceso de transferencia se necesita, en primer lugar, una estabilidad de los equipos. Mar y estabilidad son palabras que no se entienden muy fácilmente: en el agua todo nada se está quieto y por tanto es necesario diseñar un marco estable donde anclar los equipos. Se diseñó por tanto una puerta rígida para colocar entre las aperturas de las jaulas donde situar los equipos. Las siguientes imágenes muestran el primer prototipo en puerto junto con parte del equipo investigador y la puerta colocada entre dos jaulas en el proceso de transferencia.





Se utilizaron técnicas acústicas activas para detectar los atunes. ¿Cómo se visualiza un atún acústicamente hablando? Este vídeo muestra el registro de una cámara submarina y el ecograma correspondiente (obtenido con una ecosonda de haz partido que emite un haz en forma de cono). 

Se empleó una ecosonda científica EK-60 de Simrad junto a un sónar de barrido lateral (SSS, de side-scan sonar, en inglés) de frecuencia 200kHz diseñado específicamente para este proyecto. Este tipo de transductores emiten un haz acústico en forma de “cortina” o “abanico”, siendo muy estrecho en una dirección y muy anchos en la dirección ortogonal. La elección del transductor se debe a que el haz acústico debe cubrir la totalidad de la puerta de paso de los atunes. La siguientefigura muestra una de las configuraciones usada en las transferencias y se ha marcado, en amarillo, el haz acústico. En rojo aparece el haz correspondiente a las cámaras ópticas. El prototipo mostrado fue ligeramente modificado añadiendo un brazo donde se instalan los equipos, que quedan situados en el interior de la jaula receptora, y que mejora los márgenes de error en el conteo.


Detalle de la estructura utilizada: en amarillo el haz acústico,
en rojo el óptico. 

Los datos recogidos se procesan en primer lugar con ayuda del software Sonar5 Pro4 que proporciona un archivo de texto para ser procesado con código propio en Matlab®, implementando un código que permite detectar las trazar de atunes y contarlas utilizando algoritmos de segmentación basada en regiones. En el ecograma se pueden “ver” los atunes en una de las transferencias: en la mayoría de los casos, cada una de las “manchas” es la traza correspondiente a un atún –cuando la “mancha” corresponde a varios atunes que pasan muy juntos, el algoritmo lo considera para ajustar el conteo.





El método se ha testado incluso en condiciones de fuerte marejada. En estas condiciones extremas el conteo no puede realizarse automáticamente, pero los datos permiten su conteo semiautomático, cosa que mejora respecto el sistema anterior. 

Los resultados del proyecto nos permiten afirmar que esta nueva técnica acusto-óptica permite contar (la parte acústica) y tallar (la óptica, que no se ha descrito aquí) los atunes rojos con mayor precisión y rapidez que el método actual lo que ayuda a mantener una pesca sostenible se esta especie por un lado y evita pérdidas económicas por el otro. 

La próxima vez que pidáis un tartar de atún rojo o se os haga la boca agua viendo su ventresca, pensad que quizá lo ha contado una ecosonda antes de llegar a vuestra mesa. 

Un resumen en vídeo de este post podéis encontrarlo aquí.


Texto de Isabel Pérez-Arjona, Doctora en Física por la Universidad de Valencia y Profesora Titular de la Universitat Politècnica de València (Campus de Gandia).



1Rodriguez-Marin, E. et al., 2012. “Biometric Relationships of Atlantic Bluefin Tuna (Thunnus Thynnus) from the North-East Atlantic and Mediterranean Sea .” Collect. Vol. Sci. Pap. ICCAT SCRS/2012/:16.

2Pons, Vicente Puig. Control y caracterización del Atún Rojo en Jaulas Marinas. Diss. 2017.

3Muñoz-Benavent, Pau, et al. "Automatic Bluefin Tuna sizing using a stereoscopic vision system." ICES Journal of Marine Science (2017).

4Balk, H., Lindem, T., 2011. Sonar4 and Sonar5-Pro POst Processing Systems. Operator Manual Version 6.0.2. Oslo, Norway.

lunes, 16 de octubre de 2017

Ondas gravitacionales y dimensiones extra: un viaje al ojo de la tormenta

Hace poco tiempo publiqué un artículo con David Andriot, mi compañero de oficina en el Instituto Max Planck de Potsdam (Alemania), que ha sido trasladado por periodistas a una serie de medios de comunicación y de divulgación. Aunque contentos por la visibilidad inesperada dada a nuestro trabajo, el afán de impacto y de audiencia mezclado con la falta de educación científica de algunos periodistas a menudo nos ha dejado frustrados con el resultado publicado. Este es el motivo principal que me ha llevado a aceptar la proposición de la Física del Grel: escribir yo mismo sobre nuestro trabajo en términos que la gente sin conocimiento especializado pudiera entender. 


Empecemos con una breve contextualización: las ondas gravitacionales y la vigente teoría general de la relatividad de Albert Einstein (también conocido como relatividad general). ¡Ay, Alberto!, ¡quién pudiera agradecerte el impacto que has tenido! 

La fuerza de gravedad es el nombre que los físicos le dan al motivo por el cual los planetas giran alrededor del sol. Pero esta fuerza se haya detrás de otros muchos fenómenos: cuando tu smartphone cae y se estrella contra el suelo, es culpa de la fuerza de la gravedad, no de un tal Murphy; cuando el universo se expande, es culpa de la gravedad, y el día que un asteroide choque contra la Tierra, será culpa de esta fuerza. Pero una cosa es desdibujar lo que es la fuerza de gravedad dando estos ejemplos, y otra cosa es explicar como funciona, cuáles son todas sus consecuencias y qué hay detrás de la aparente atracción mutua de objetos, planetas y cometas. Para esto último es menester inventarse una teoría que dé cuerpo a una posible explicación, y que concretice nuestro entendimiento de los fenómenos gravitatorios. 


Newton fue el primero en formular su teoría de la gravedad, pero más que una explicación o un funcionamiento subyacente, nos dejó con una fórmula predictiva: la famosa fórmula que dice que “dos cuerpos masivos se atraen mutuamente con una fuerza (de gravedad) proporcional al producto de las masas e inversamente proporcional al cuadrado de la distancia que les separa”. La teoría de Newton fue un éxito, porque su famosa fórmula funcionaba en casi todas las situaciones (en aquella época, en todas las que se podían concebir y realizar). 

Sin embargo, conforme el mundo se adentraba en el sigo pasado, a Albert Einstein no le convencía lo simple que era la teoría de Newton, y estaba convencido de que esta última necesitaba una actualización. Algo así como tu ordenador portátil de hace seis años: puede que siga funcionando, pero todos sabemos que necesita un recambio, más memoria, o lo que sea. Pero Einstein, más que una actualización nos dejó con una revolución: su teoría aseguraba que la atracción gravitatoria entre dos cuerpos realmente se debía a que el espacio-tiempo se deforma y se distorsiona según dónde se encuentre qué cuerpo masivo. Esta idea le llevó a formular su teoría general de la relatividad, que fue un éxito incluso mayor que la teoría de Newton, y que hoy en día es la que mejor explica la fuerza de gravedad y los fenómenos asociados a ella. 

Pero, ¿qué es la relatividad general? La respuesta no tiene por qué ser complicada: es la teoría que propone Einstein para “explicar” y “describir” los fenómenos gravitacionales, es decir, todo aquello que tiene que ver con la fuerza de gravitación, una de las fuerzas fundamentales que rigen el comportamiento del universo y de su contenido. Vale, ¿y ahora, en castellano?, estarán pensando algunos. Bien, la clave de esta revolución científica y casi filosófica es la siguiente: cuando un cuerpo atrae a otro no es magia, lo que ocurre es que el primer cuerpo, por encontrarse donde se encuentra, deforma el espacio-tiempo alrededor suyo más o menos como una bola pesada deformaría una cama elástica; el segundo cuerpo (otra bola pesada, digamos, que se encuentra en algún lugar de esa cama elástica) siente esa deformación y por lo tanto tiende a caerse hacia el primer cuerpo. Evidentemente, pasa lo mismo al revés: el segundo cuerpo también influye sobre la forma que adopta la cama elástica (el espacio-tiempo) y de esa manera hace que el primer cuerpo se caiga, a su vez, hacia el primero. En definitiva: que se atraen, pero que no es culpa de Cupido, ¡es culpa del espacio-tiempo! Esa es, al menos, la explicación que propone Einstein, y hasta la fecha no tenemos otra mejor. 

Bueno, ya basta de contexto, ¿no? Esto está muy bien, pero los lectores seguramente estarán preguntándose que cuándo viene lo bueno de verdad. 

¡Pues al grano! Entre muchas otras consecuencias de la teoría general de la relatividad, está la predicción siguiente: cuando uno o varios cuerpos se mueven, de cierta forma, emiten las llamadas ondas gravitacionales. El espacio-tiempo es una noción complicada, y para entender las ondas gravitacionales es bueno ampararse en una analogía distinta a la de la cama elástica: la del lago. Cuando un barco (un cuerpo) se mueve por la superficie del lago, crea olas que pueden llegar hasta la orilla y ser vistas, o más bien detectadas, por un espectador. Eso pasa precisamente cuando, por ejemplo, dos agujeros negros giran tan rápidamente al rededor el uno del otro, que generan “olas en el espacio-tiempo”. Algo así como olas en la cama elástica que mencionaba en los párrafos anteriores. Y a estas olas, precisamente, se les ha puesto el nombre de “ondas gravitacionales”. Nada más, y nada menos. Si es que los físicos simplemente aborrecemos los nombres cortos y fáciles. 

El año pasado se detectaron por primera vez de forma directa ondas gravitacionales, provenientes de dos agujeros negros, con la ayuda de los detectores LIGO y Virgo. Por cierto, que tal detección les ha valido el premio Nobel de Física, anunciado la semana pasada, a los impulsores de esas colaboraciones: Barry Barish, Kip Thorne y Rainer Weiss. Estos dos agujeros negros cada vez se acercaban más el uno al otro, siempre girando en torno el uno al otro, y cuando se acercaron tanto que casi se tocaban, fusionaron. Tales procesos son tan intensamente energéticos (o sea, que la lían parda allí por donde andan en el universo) que las ondas gravitacionales que se generan en tales ocasiones consiguen, a veces, llegar hasta la tierra con suficiente magnitud como para ser detectadas. Aprovecho este momento para subrayar la calidad del trabajo de Einstein, que hace un siglo predijo un fenómeno (la existencia de ondas gravitacionales) que hemos tardado casi cien años en evidenciar directamente de forma experimental. 


Para entender el trabajo que he realizado con David Andriot al respecto, aún es necesario otro toque de contextualización. Dejemos a un lado, de momento, la teoría general de la relatividad. Es una teoría muy acertada, pero no lo explica todo. En general, hoy en día, los físicos aún se hacen muchas preguntas sobre el universo a las cuales ninguna teoría en vigor consigue dar respuesta, ni siquiera la teoría del maestro Einstein. Por ejemplo: ¿de qué está hecho el universo? ¿cuál ha sido su evolución pasada y cómo evolucionará en el futuro? (¿seguirá expandiéndose o se contraerá?) ¿Cuales son las fuerzas más fundamentales que rigen los fenómenos más energéticos? ¿Qué ocurre dentro de un agujero negro? ¿Cuántas dimensiones hay? Podría seguir, pero voy a dejarlo ahí por dos motivos: primero, porque no quiero dar la impresión de que no tenemos ni idea de cómo funciona el cosmos (aunque realmente, es lo que hay), y segundo, porque la pregunta que me interesa tratar hoy es esta última: ¿cuántas dimensiones hay?

Esta pregunta puede chocar, claro está. Si el espacio-tiempo se compone de cuatro dimensiones (el tiempo es la primera, y luego están las tres dimensiones del espacio habitual), ¿a qué viene esta pregunta? Esto es algo muy delicado de explicar, y la versión corta es tan frustrante como aterradora: simplemente, existe la posibilidad de que el universo (o el espacio-tiempo) se componga de más de cuatro dimensiones. Obviamente lo que molesta es que si hay más, ¿por qué no las vemos? ¿Por qué no puede uno “viajar” en esa dimensión, en vez de hacia delante o hacia atrás, en vez de hacia la izquierda o hacia la derecha, en vez de hacia arriba o hacia abajo? ¿Qué es lo que me impide dar un paso en esa dimensión, igual que avanzo en una de las tres dimensiones habituales cuando doy un paso hacia delante, hacia la derecha o cuando doy un salto? La idea es la siguiente: existe la posibilidad de que estas dimensiones “extra” no sean del mismo tipo que las que ya conocemos. Quizá, dicen los físicos, estas dimensiones adicionales sean “pequeñas” o se encuentren “enrolladas”, y por ello los humanos no las ven a simple vista. Algo así como túneles diminutos, demasiado diminutos para que nos demos cuenta de su presencia y podamos adentrarnos en ellos. 

Sería un despropósito adentrarse en una explicación más detallada de lo que son estas dimensiones “extra”. Es bien difícil representárselas, incluso para los físicos. De hecho, si algún físico le dice algún día que él consigue representarse mentalmente estas dimensiones, deje de hablar con él pues está claro que es un charlatán. Lo que sí hay que tener presente es que la cuestión de las posibles dimensiones “extra” se encuentra en el ojo de la tormenta de futuras teorías que hoy en día se disputan los físicos teóricos del mundo entero. Tener la certeza de que estas dimensiones adicionales existen sería una revolución sin precedente, y nos ayudaría enormemente en tanto que nos permitiría guiar nuestro pensamiento, y nos aportaría una certidumbre al menos, en un océano de inciertos. ¿Quién sabe qué forma tendrá la teoría del mañana? ¿Quién sabe cuáles son las leyes más fundamentales de la naturaleza? ¿Quién sabe cuántas dimensiones existen en este universo?

Por fin, he aquí la pregunta que nos hicimos David y yo hace algo más de un año, y que dio lugar a nuestro trabajo: si hay más de cuatro dimensiones en el universo, ¿no se verían ondas gravitacionales “deformadas”? Es decir: al viajar por un universo compuesto por más de cuatro dimensiones, ¿no acabarían por ser diferentes las ondas gravitacionales que llegan hasta la Tierra desde algún agujero negro? La idea era utilizar las ondas gravitacionales para intentar aclarar esta gran pregunta: ¿cuántas dimensiones existen y nos rodean? En particular, la teoría de cuerdas predice la existencia de seis dimensiones extra, además de las cuatro habituales. ¿Es, pues, posible comprobar experimentalmente este aspecto de la teoría de cuerdas a partir de la observación de ondas gravitacionales?

Para contestar a esta pregunta, David y yo partimos del modelo matemático (teoría) siguiente: relatividad general, ¡pero en diez dimensiones! Esto sería algo así como copiar las primeras páginas del famoso artículo de Einstein, pero cambiando el número de dimensiones (que eran cuatro en su día) por un número mayor de cuatro. Alguno se estará preguntando, pero esto, … ¿acaso no es lo mismo que la relatividad general de Einstein? Lo es, y no lo es. Es un modelo, una teoría, que puede parecer similar a la relatividad general de Einstein, pero realmente el cambiar el número de dimensiones del espacio-tiempo tiene consecuencias muy graves. Es como trastocar uno de los supuestos de la teoría original, pero manteniendo el “look” de las ecuaciones de Einstein. Es como si digo que a mi coche le voy a añadir unas catorce ruedas y aumentar la potencia del motor. Bueno, unos dirán que sigue siendo un coche … pero es un tren, ¡por Dios! 

Partiendo de esa base, de las ecuaciones de Einstein en más de cuatro dimensiones (diez, pongamos, como manda la teoría de cuerdas), empezamos a trabajar y a calcular. Lo que hicimos fue, a partir de ese punto de partida, deducir cuáles serían las características de las super-ondas gravitacionales que podrían existir en tales universos compuestos por diez dimensiones de espacio-tiempo. Más concretamente, la idea es la siguiente: suponiendo que las seis dimensiones extra sean “pequeñas” o “invisibles” para nosotros los mortales, pero que sin embargo fueran accesibles por las ondas gravitacionales (o sea que la fuerza de gravedad sí que tendría derecho a dar ese “paso” hacia delante y viajar en esas dimensiones extra), ¿qué diferencia veríamos nosotros? ¿Cómo de diferentes se verían las cosas en los detectores LIGO y Virgo al pasar una onda gravitacional? Estos detectores, recordémoslo, están situados en Estados Unidos (LIGO) y en Italia (Virgo). Terminaron de construirse hace unos años y tuvieron la suerte de detectar ondas gravitacionales al poco de ponerse en marcha. 

En resumen: si el universo estuviese compuesto por más de cuatro dimensiones, ¿serían las mismas ondas gravitacionales las que se detectarían? ¿Tendrían la misma forma, las mismas características, o presentarían alguna diferencia? La pregunta es clave, ya que, de ser la conclusión positiva, es decir, que en un modelo con dimensiones extra las ondas nos aparecerían diferentes, tendríamos a nuestro alcance algo así como un detector de dimensiones extra: ¡LIGO y Virgo! Bastaría con utilizar estos dos aparatos para intentar detectar esas posibles diferencias, y así determinar si el universo está compuesto por más de cuatro dimensiones o no. Al que no le haya puesto nervioso esto último que pare de leer. Nada más puedo hacer por él. Estamos hablando de que gracias a unos desarrollos matemáticos, ¡se podría utilizar un detector de ondas gravitacionales a modo de detector de dimensiones extra en el universo! 

Los desarrollos matemáticos que realizamos David y yo precisamente dieron lugar a una respuesta positiva. Es decir, que según nuestros cálculos, efectivamente, en un universo con más de cuatro dimensiones, deberíamos de observar (a través de los detectores LIGO y Virgo, por ejemplo) ondas gravitacionales un tanto diferentes. Pero diferentes, ¿con respecto a qué? Pues con respecto a las que pronostica la relatividad general de Einstein, la de siempre, es decir, la que supone que sólo existen cuatro dimensiones de espacio-tiempo. Antes de concluir quiero enfatizar que todo esto es real. Quiero decir que, en realidad, nadie sabe cuántas dimensiones hay en el universo. La única forma de saberlo es esta: diseñar una teoría que parta del supuesto de que hay más de las cuatro dimensiones obvias, y después intentar convalidar o invalidar la teoría por medio de mediciones, observaciones y experimentos. Esta lógica no es nada que nosotros hayamos inventado. Lo innovador en lo que hemos hecho David y yo es que hemos trasladado esa lógica al ámbito de las ondas gravitacionales. 

Las “diferencias” que concluimos existirían entre las ondas gravitacionales “convencionales” y nuestras super-ondas que “viven” en más de cuatro dimensiones, no son fáciles de explicar. Son cuestiones relativamente técnicas y de complicada divulgación. Lo importante es lo siguiente: parte de las diferencias que evidenciamos, se podrían ver con los detectores LIGO y Virgo de hoy en día. A día de hoy, precisamente, no se han visto esas diferencias, y en los datos recogidos por LIGO y Virgo hasta la fecha no hay absolutamente nada que apunte a cualquier teoría que no sea la buena y vieja relatividad general de Einstein en cuatro dimensiones. Pero esa diferencia, esa discrepancia, es algo que la gente de LIGO y Virgo está buscando encontrar activamente y con gran afán. 

Claro está, si se consiguiera mediante un detector de ondas gravitacionales poner en duda en cierto modo la teoría que ha reinado sobre nuestro entendimiento de la fuerza de gravedad y del espacio-tiempo durante los últimos cien años, sería una revolución de proporciones bíblicas. Una tormenta. Y en el ojo de esa tormenta, quizá, y con mucha suerte, vientos violentos agitarían nuestro artículo.



Gustavo Lucena Gómez es Doctor en Física Teórica por la Universidad Libre de Bruselas, donde realizó su tesis bajo la dirección de Marc Henneaux, uno de los expertos más reconocidos en gravitación y física teórica de alta energía. En la actualidad, Gustavo es investigador postdoctoral en el Instituto Max Planck de Gravitacion--Instituto Albert Einstein (AEI), de Potsdam, Alemania.

martes, 10 de octubre de 2017

Comenzamos #LasCharlasDelGrel

Os contamos hace unas semanas que para este curso íbamos a realizar charlas en bares, amén de otras actividades que os iremos anunciando oportunamente. Aquí las tenemos: #LasCharlasDelGrel.

Para comenzar, no se nos ocurre mejor forma que hacerlo con nuestro compañero Alberto Aparici. Seguro que ya todos lo conocéis pero para los que no, deciros que Alberto es un gran físico y mejor divulgador. Nacido en Castellón y doctorado en Física por la Universidad de Valencia, Alberto es el responsable de comunicación del Instituto de Física Corpuscular (IFIC) de la Universitat de València, y responsable de la sección de Ciencia del programa La Brújula de Onda Cero. Su actividad divulgadora es de una calidad envidiable. Sin duda, Alberto es uno de los grandes divulgadores de este país. 

El título de la charla será "El mundo de las partículas: el modelo estándar y más allá". En propias palabras de Alberto:

"La física de partículas es la ciencia de lo más pequeño: estudia los componentes elementales de la materia y cómo estos dan lugar al universo que conocemos. Algunos de los actores que participan en esa historia son bien conocidos, como los átomos o los electrones, y otros han llegado hace relativamente poco, como el bosón de Higgs. ¿Cuántas de estas partículas hay y por qué seguimos descubriendo nuevos miembros de la familia a día de hoy, 100 años después de desvelar los secretos del átomo? Éstas son algunas de las preguntas a las que intentaremos responder durante esta charla: nos adentraremos en el mundo cuántico y nos preguntaremos qué es eso a lo que llamamos "partícula"; con un poco de suerte, aprenderemos algo en el proceso. Conoceremos el Modelo Estándar, que nos permite entender los diferentes tipos de partícula y cómo estas "hablan" entre sí, intercambiando energía e información. Finalmente, nos preguntaremos si esto que sabemos ahora, a principios del siglo XXI, es todo lo que hay o aún nos quedan fronteras por explorar."

La charla tendrá lugar en Ubik Bar, situado en la calle Literato Azorín, número 13, del barrio de Russafa (Valencia), a las 20.00 horas del próximo miércoles 18 de octubre. La entrada será libre. ¡¡Os esperamos!!


martes, 5 de septiembre de 2017

Lo siento mucho, Señor Cousteau



Muchos y muchas de los que hemos caído leyendo este blog compartimos una pasión: la ciencia en general y la física en particular.  Tratamos de entender y explicar objetivamente el mundo que nos rodea y explorar, conocer y comprender -¡en la medida de lo posible!- los universos que están por descubrir. Sentimos especial fascinación por ir más allá de nuestras fronteras hacia escalas cada vez más pequeñas o cada vez mayores, hacia la estructura más fundamental de la materia o hacia los confines del cosmos.  Todos los que decidimos algún día acercarnos a esta ciencia, de modo profesional o movidos por la curiosidad, hemos oído hablar de quarks, teoría de cuerdas, del bosón de Higgs y los neutrinos, de ondas gravitacionales… siempre, siempre tratando de llegar hasta los límites del (¿deberíamos decir nuestro?) universo conocido. Y resulta paradójico que, incluso entre todos los freaks que sentimos esta inquietud, a menudo pasa desapercibido un mundo aún por descubrir y muchísimo más cercano a nosotros: el mundo submarino. El océano es un medio hostil para la especie humana. Como ocurre con el universo exterior, nuestro organismo no está adaptado al medio y por tanto su exploración está intrínsecamente ligada al desarrollo científico y tecnológico. Las primeras inmersiones con escafandra datan del siglo XIX, y con equipos autónomos a mediados del siglo XX. La máxima profundidad que ha alcanzado un ser humano buceando es de unos 330 metros. ¿No es curioso que podamos llegar a la Luna, que estemos pensando en explorar Marte y que seamos extraños en rincones de nuestro propio planeta? Está claro que no podemos “bajar allí abajo”, por lo que necesitaremos otras técnicas para explorar lo que ocurre tanto en la columna de agua como en el fondo submarino. Las ondas electromagnéticas siempre han sido uno de los primeros recursos de exploración para los humanos. ¡Pero si incluso tenemos una frase que dice “si no lo veo no lo creo”! La luz –espectro electromagnético visible- ha sido nuestra primera herramienta de observación y el resto del espectro ha ido detrás. Sin embargo, las ondas electromagnéticas apenas se propagan en el medio acuático (unos pocos centímetros si pensamos en las frecuencias propias de las conexiones de Wi-Fi), así que necesitamos otra herramienta, y aquí es donde queríamos llegar: las ondas acústicas.

El océano es un medio fundamentalmente acústico. La velocidad del sonido en el agua es 5 veces mayor que en el aire, y su absorción, dependiente de la frecuencia de la onda, es mil veces menor, lo que facilita que el sonido se propague velozmente y a largas distancias. Eso sí, como todo no pueden ser ventajas, el medio presenta una enorme variabilidad que afecta a la propagación del sonido: la velocidad depende de la presión, de la temperatura y de la salinidad, c=c(P,T,s), parámetros que varían a lo largo de la columna de agua, lo que, por refracción, modifica la trayectoria de las ondas acústicas. Estas ondas a su vez sufren perturbaciones y deformaciones, debido a las reflexiones y a las inhomogeneidades del medio. Estos condicionantes deben tenerse en cuenta a la hora de estudia la propagación de las ondas en el mar. 

Las especies acuáticas están adaptadas a este medio y han hecho de la acústica su herramienta fundamental de supervivencia, como los humanos hemos hecho con la vista. La mayoría, llegados a este punto, pensaremos en los sonidos emitidos por los cetáceos, orientados fundamentalmente a la detección de presas, identificación de predadores o comunicación. Estos mamíferos marinos –que suelen, por lo general, resultar bastante simpáticos- emiten sonidos en un amplio espectro de frecuencias  y los emiten no sólo bajo el agua sino también en superficie, de modo que resultan fuentes acústicas audibles para los humanos. Sin embargo, no es tan conocido que hay muchísimas otras especies, más allá de cetáceos, que son “especialistas en acústica”. Algunas especies de peces, como es el caso del pez sapo, Opsanus tau, emiten sonidos ligados al cortejo, y muchos de ellos se valen de la detección de las ondas acústicas para nadar en bancos compactos y no desorientarse. Incluso invertebrados como cangrejos o langostas emiten sonido vibrando su caparazón o por frotamiento de partes de su cuerpo. Es precisamente un invertebrado, el llamado “cangrejo pistolero”, Alpheus heterochaelis (Imagen 1), el responsable del ruido más intenso producido por una fuente biológica en el mar. Este cangrejo genera una burbuja de agua cerrando sus pinzas a gran velocidad. Por cavitación se genera una burbuja de vapor que colapsa, llegando a provocar “estallidos” de hasta 220dBref 1mPa dB a 4 cm.

Imagen 1: El cangrejo pistolero. Imagen propiedad de CSIRO1

Al igual que todas estas y otras muchas especies, también el hombre ha desarrollado el campo de la acústica submarina para poder sacar provecho de las ventajas que proporciona un fluido (el agua) para la propagación de las ondas acústicas y aumentar su conocimiento sobre el medio acuático. Podría fecharse el inicio de esta disciplina en los trabajos de Paul Langevin entre 1915 y 1918, demostrando la capacidad de transmitir señales y con la detección de submarinos utilizando ultrasonidos. Su desarrollo fue especialmente intenso durante la segunda guerra mundial y la guerra fría, con aplicaciones de carácter principalmente militar, y posteriormente su uso se extendió también a las aplicaciones civiles. Las funciones fundamentales de la acústica submarina son: 

i) Detectar y localizar objetos y obstáculos.  

ii) Medir la características del medio-ambiente marino, o la posición y velocidad de un objeto. 

iii) Transmitir señales, tales como datos de instrumentación científica, señales entre buques y submarinos o telecomandos a dispositivos. ‏ Para desarrollar estas funciones, las técnicas acústicas utilizadas pueden dividirse en dos: técnicas pasivas y técnicas activas.

Las técnicas pasivas consisten en “escuchar” el océano: la observación consiste en registrar los sonidos existentes y procesarlos, sin emitir energía acústica en el mar. Si fuera del agua utilizamos los micrófonos, en el agua utilizaremos sus análogos acuáticos, los hidrófonos, aislados o incorporados a dispositivos más complejos de monitorización. Los sistemas pasivos tienen un abanico extenso de usos, desde la utilización recreativa para escucha de cetáceos, la detección y tracking de algunas especies o la realización de mapas acústicos o estudios de impacto. La fotografía (muestra un dispositivo pasivo, el SAMARUC3, diseñado en la Universitat Politècnica de València. 


Imagen 2: Sistema acústico pasivo SAMARUC.

Los gráficos muestran los niveles recogidos en un fondeo en Cabrera: el gráfico superior (Imagen 3) corresponde a una semana del mes de agosto, el inferior (Imagen 4) a la última semana del año. El aumento de tráfico marítimo en agosto es evidente comparando los dos registros. Cabe destacar también el aumento de niveles en el último día del registro inferior: corresponde a fin de año.

Imagen 3: registro del fondeo del Parque Nacional de Cabrera a 90 m de profundidad, muestra la variabilidad diaria de presencia de embarcaciones en del 8 al 16 de agosto de 2013.

Imagen 4: registro desde el 24 diciembre del mismo año al año nuevo de 2014, evidenciando la menor presencia de embarcaciones y disminución de niveles.

Las técnicas activas, por el contrario, conllevan la emisión de ondas acústicas en el océano. Su utilización es muy amplia y, de modo general, permiten detectar y localizar objetos aunque estos no sean fuentes de sonido–es la principal función de sónares y ecosondas-, medir características del entorno marino y transmitir señales.  El funcionamiento del principal dispositivo activo –ecosondas y sónar- consiste en su descripción más básica en la emisión de un pulso acústico y la recepción y procesado del eco producido por los objetos que encuentra en la columna de agua o en el fondo. La nivel de intensidad del eco recibido por la ecosonda, EL (echo level),  viene dada según la ecuación del sónar4:

EL = SL - 2 TL + TS

En esta ecuación, donde las magnitudes se expresan de forma logarítmica, SL (source level) representa el nivel de fuente, que es configurado por el usuario en el momento de emitir el pulso ultrasónico y por tanto conocido, TL (transmission loss) tiene en cuenta las pérdidas por transmisión del haz en el camino de ida hasta el obstáculo y de vuelta hasta la ecosonda, de ahí el “2”, considerando tanto las pérdidas por absorción como por dispersión geométrica y que son conocidas si se conocen las propiedades del medio y del pulso emitido y, finalmente, el término TS (target strength) es el factor de blanco,  que se define como la relación (en dB) de la intensidad de la onda devuelta (hacia la ecosonda) por el objeto (Ibs) y la que incide sobre éste (Ii), y tiene la expresión:

T S = 10log (Ibs Ii)


El TS depende de las propiedades del objeto sobre el que incide: material, orientación, tamaño, forma, respuesta a la frecuencia... y por tanto es un parámetro fundamental en el campo de la acústica activa.

Uno de los objetos que nos encontramos en la columna de agua son, por supuesto, los peces y el estudio de su TS es una herramienta fundamental en pesquerías5: detección de bancos, monitorización, control de crecimiento, identificación de especies… En el gif vemos el funcionamiento de una ecosonda de haz simple, que muestra el eco procedente de un pez atravesando el haz acústico.  



Quizá, llegados a este punto, aún no se os haya pasado por la cabeza pensar qué tiene que ver todo esto de la acústica submarina con comerse un buen sashimi de maguro. Aunque probablemente no podáis dejar de pensar en ello, sobre todo si os gusta el sushi… ¡Lo veremos más adelante!    

Sashimi de Akami. Imagen propiedad de Tunatega Balfegó.6


El océano es un mar de ruido, y el sonido vive en él “como pez en el agua”. Sintiéndolo mucho, Sr. Cousteau, no, no es un mundo silencioso.


Texto de Isabel Pérez-Arjona, Doctora en Física por la Universidad de Valencia y Profesora Titular de la Universitat Politècnica de València (Campus de Gandia).


1http://www.scienceimage.csiro.au/
2Lohse, D., Schmitz, B. and Versluis, M. 2001, “Snapping shrimp make flashing bubbles.” Nature 413(6855): 477 – 478
3R. Miralles, G. Lara, A. Carrion, and J.A. Esteban. SAMARUC a Programmable system for Passive acoustic monitoring of cetaceans. WAVES, 5(1):69–79, 2013.
4Lurton, Xavier. An introduction to underwater acoustics: principles and applications. Springer Science & Business Media, 2002.
5MacLennan, David N., and E. John Simmonds. Fisheries acoustics. Vol. 5. Springer Science & Business Media, 2013.
6https://www.tunatecabalfego.com/