lunes, 1 de abril de 2019

El LHC - Bernardo Adeva Andany

El LHC: acelerador de partículas, acelerador del conocimiento.




Durante el periodo de aproximadamente 40 años que va desde 1973, con el descubrimiento en el CERN de las corrientes débiles neutras, hasta 2012, en que se descubre, también en el CERN, el bosón de Higgs, tuvo lugar una serie de observaciones experimentales en distintos aceleradores de partículas, que provocaron una fuerte expansión de nuestro conocimiento de la física. Fue el periodo de consolidación de lo que se conoce con el nombre de teoría de unificación electrodébil, que forma la parte más característica del llamado (de forma un tanto displicente) Modelo Estándar de la física de partículas.
Vamos a resumir cuáles fueron las ideas, e hitos principales, de este desarrollo previo, que sin duda estuvo en el origen del actual colisionador LHC (Large Hadron Collider) del CERN. Si hubiera que asociar un nombre a la parte teórica de este desarrollo (cosa a veces necesaria, para fijar nuestras ideas), yo lo asociaría con Steven Weinberg, autor del principal artículo seminal para la unificación electrodébil en 1967 [1].
Hasta entonces se conocía la interacción débil, que gobierna la desintegración beta de los núcleos radiactivos emisores de electrones (transmutando un protón en neutrón, o viceversa), y también la desintegración de muones (que son electrones pesados) en electrones.  En ambos casos se produce la emisión de neutrinos. La interacción débil es apenas conocida por el gran público, que tiende a confundirla con la energía nuclear. Esta confusión es comprensible, porque ambas operan en el entorno de los núcleos. La primera forma parte inevitable de los ciclos de reacciones termonucleares que provocan, por ejemplo, la explosión de las supernovas, o la combustión del hidrógeno solar para formar Helio. No hace falta decir lo bien que se conocía en 1967 el electromagnetismo, que gobierna, entre otras cosas, las ondas de radio y televisión, así como también la energía química de los átomos y de las moléculas. Mientras el electromagnetismo transmite su energía por partículas neutras (los fotones), la interacción débil lo hace por partículas cargadas (el bosón W emitido por el protón o neutrón, que es luego convertido en electrón y neutrino) [2] [3].
El primer paso dado por Weinberg fue darse cuenta de que la interacción débil tenía que admitir también una versión eléctricamente neutra, donde los neutrinos pudiesen golpear electrones y núcleos, sin necesidad de intercambiar con ellos bosones W cargados. La partícula intercambiada sería un bosón eléctricamente neutro, como el fotón (llamado W3). De esta forma tendríamos una terna de bosones (W+, W- y W3) que otorgarían a la interacción débil una simetría similar al electromagnetismo, pero con 3 fotones en lugar de uno solo.
Toda la belleza del electromagnetismo, condensada en las famosas ecuaciones de Maxwell, podía ahora extenderse a la interacción débil, simplemente admitiendo que, en total, necesitamos tener 4 campos similares al campo electromagnético (W+, W-, W3 y B), en lugar de únicamente el fotón. Tres de ellos para dar cuenta de la interacción débil, y otro más B, de cuyo acoplo surgiría el electromagnetismo. Weinberg se dio cuenta de que no era posible la simple yuxtaposición de ambos tipos de interacción, sino que los campos neutros W3 y B debían estar mezclados, de tal manera que el fotón A y la corriente débil neutra observada Z0 fuesen combinaciones lineales ortogonales de ambos.
Viendo que la simetría a cuatro así obtenida era una extensión de la ya conocida para el electromagnetismo, y que los cálculos funcionaban, Weinberg se enfrentó al verdadero problema de fondo, el más difícil de resolver: mientras la interacción débil actuaba solo a distancias muy cortas (por debajo del femtómetro), en cambio el electromagnetismo actuaba a distancias tan largas como se quiera (piénsese en las ondas de radio). ¿Cómo podría admitirse que ambos tuviesen igual naturaleza? La forma de describir esto en la teoría cuántica y relativista es constatar que mientras los bosones de la interacción débil tienen masa muy elevada, en cambio el fotón tiene masa nula. Y la dificultad estriba en el hecho de que unos tengan masa y otros no, pues ello rompe la simetría electrodébil.


Fig.1. Steven Weinberg, Premio Nobel 1979, Archivo Fundación Nobel.

La solución la encontró Weinberg utilizando adecuadamente un principio ya establecido por entonces en la teoría cuántica de los campos, que era el de atribuir al vacío (el estado sin partículas que lo llena todo) la responsabilidad de una simetría rota, como idea genérica. Él lo aplicó a este caso concreto, postulando la existencia de 4 nuevos campos sin espín, también dotados de carga débil, que interaccionan con bosones, electrones y quarks dentro de la simetría electrodébil. Uno de ellos (el llamado bosón de Higgs) toma un elevado valor en el vacío. Es decir, que el vacío no es inerte, sino que contiene, distribuida por todo el espacio, carga débil neutra, y hace así posible que la interacción débil tenga corto alcance, sin alterar la simetría de las interacciones. Esto se conoce en la literatura como mecanismo de Higgs. Además, Weinberg explica brillantemente porqué el fotón se queda sin masa, pues la carga eléctrica que comunica no está, por el contrario, presente en el vacío. Este hecho da origen a la singularidad del electromagnetismo. El otro bosón neutro que sí adquiere masa es el Z0.Como hemos dicho, ambos son rotaciones ortogonales de los campos neutros W3 y B, habiendo tomado el ángulo de rotación qW el nombre de su descubridor.
Weinberg se adelantó bastante a su tiempo, pues fue necesario ese periodo de 40 años que mencionaba antes, para que varias generaciones de aceleradores, en distintas partes del mundo, fuesen desvelando los aspectos esenciales de la teoría. En 1984 se descubrieron los bosones W+- y Z0 en el CERN. En este proceso se fueron descubriendo, además, nuevos quarks, incluyendo los más pesados: el charm (c) en 1974, el bottom (b) en 1977 y el top (t) en 1992. Es curioso que, siendo su teoría universal para quarks y electrones, Weinberg no mencionase para nada los quarks en su modelo inicial. Esto revela hasta qué punto el avance de la teoría se debió a un esfuerzo conjunto de muchos grandes físicos.


Fig.2. Las tres familias conocidas de quarks y sus masas.

Hablando de los quarks, debemos mencionar aquí otro avance esencial de la teoría electrodébil, cuya contribución mayor, en este caso, fue debida a los físicos japoneses Kobayashi y Maskawa en 1973[4]. Se trataba de explicar, en dicha teoría, porqué la tasa de desintegración de los quarks con su espín a derechas es distinta de la de los antiquarks con su espín a izquierdas. Este fenómeno se llama en la literatura violación de la simetría CP (carga-paridad), o simplemente violación de la simetría materia/antimateria. No siendo incompatible con la relatividad restringida de Einstein, digamos que resulta un tanto extraño a ella, prueba de ello es que en la teoría electrodébil no se encontró cabida fácil para él. Kobayashi y Maskawa dieron una explicación vanguardista del fenómeno en base a la existencia de tres réplicas distintas de quarks, y al hecho de que estos quarks tuviesen masas distintas. En esto se adelantaron también a su tiempo, pues por aquél entonces no se había descubierto todavía ninguna de las generaciones de quarks pesados.
Resulta que esa ruptura de la simetría materia/antimateria es absolutamente clave para explicar porqué las galaxias de nuestro universo están todas compuestas por materia, y ninguna por antimateria, como parece ser el caso. En los primeros instantes del universo, a muy alta temperatura, es natural pensar que hubo igual número de quarks y antiquarks. Un lapso de tiempo más tarde estos se aniquilaron entre sí, dando lugar a enormes cantidades de energía. Esto hubiera hecho desaparecer los protones y neutrones que forman las galaxias, si no fuese por el hecho de que, previamente, se produjo un pequeño exceso de materia sobre antimateria. Este exceso, de aproximadamente 10-9, se denomina asimetría bariónica cosmológica, y requiere inevitablemente de la violación de la simetría CP. Sin embargo, la teoría de Kobayashi-Maskawa, aplicada a muy altas temperaturas, no permite explicarlo, pues esta produce una violación CP mucho menor. Por tanto, tenemos aquí un misterio que resolver, y muchos físicos pensábamos, al inicio del LHC, que podríamos resolver este misterio encontrando nuevas formas de violación de la simetría CP, que fuesen más allá de dicha teoría, utilizando para ello quarks pesados.
Durante las décadas de 1980 y 1990 se construyeron dos aceleradores consecutivos que parecían ser las máquinas idóneas para dilucidar todos los aspectos anteriores de la unificación electrodébil. En ambos casos se trataba de anillos de colisión para producir la aniquilación electrón-positrón, a energías muy elevadas, y disponiendo de corrientes también muy elevadas de antimateria (los positrones), que llegaron a alcanzar decenas de miliamperios. El primero, PETRA, operó en el laboratorio de DESY (Hamburgo) en el periodo 1979-1984, y el segundo, LEP, en el CERN, durante el periodo 1989-2001. De hecho, el segundo fue prácticamente una copia del primero, duplicando su energía y trasladando al CERN su centro de operaciones. Hay que decir que el túnel de 27 Km que hubo que excavar en la región próxima a Ginebra para alojar LEP es el mismo que hoy se utiliza para el LHC, y no se trata de una obra civil menor.
Ambos aceleradores tuvieron enorme éxito, pues pudieron establecer con gran precisión la mayor parte de los aspectos cruciales de la teoría de unificación electrodébil, incluyendo una auténtica radiografía del bosón Z0, y del famoso ángulo de Weinberg qW de mezcla entre los bosones W3 y B. Todo encajaba a la perfección, pero faltaba una pieza esencial: el bosón de Higgs no aparecía por ninguna parte. Hay que decir también que, además de dejar casi establecida la teoría de unificación electrodébil, estos aceleradores realizaron nuevos descubrimientos de primera fila: el del gluón, en PETRA, como partícula real que media la interacción fuerte, y el de la existencia de solo tres réplicas de neutrinos ligeros, en LEP.
Así pues, durante la década de 1990se hizo acuciante la idea de construir un nuevo gran acelerador de partículas, cuyo objetivo primario fuese dilucidar la existencia del bosón de Higgs. De hecho, ya en el laboratorio Fermilab (en Chicago) se puso en operación un acelerador protón-antiprotón con este fin, el Tevatrón, pero se quería tener una máquina aún más potente, para garantizar el éxito del proyecto. La idea que finalmente se impuso en la comunidad internacional, provino del CERN: reutilizar el túnel de 27 Km de LEP para instalar en él un nuevo acelerador protón-protón, a una energía de colisión muy elevada (16 TeV).
A diferencia del caso del bosón W, cuya masa pudo ser inferida con antelación a partir del corto alcance de la interacción débil (la constante de Fermi GF), la teoría electrodébil no es capaz de predecir la masa del bosón de Higgs, y por eso era necesario dotar al acelerador de una energía suficientemente elevada, que no dejase dudas sobre la existencia o no del bosón. Utilizar exclusivamente protones, en este sentido, en lugar de provocar la aniquilación protón-antiprotón (como en el Tevatrón), se juzgó conveniente para poder elevar todavía más la intensidad de los haces colisionantes. La decisión de construir la máquina en el CERN, tomada en 2001 por su entonces director general, el físico italiano Luciano Maiani, no estuvo exenta de polémica. Muchos pensaron en aquel momento que era más útil proseguir la toma de datos con LEP, aumentando progresivamente su energía y su intensidad. Visto en retrospectiva, hoy podemos decir que la decisión tomada fue un éxito rotundo.
Hubo otros aspectos que influyeron también en la construcción del acelerador. Las observaciones en astrofísica por entonces ya ponían de manifiesto con claridad la necesidad de introducir la llamada materia oscura, tanto para describir la velocidad de rotación de las galaxias, como para dar cuenta del fenómeno de las imágenes dobles originadas por la gravitación de Einstein.  No es evidente en absoluto que ninguna de las partículas que forman parte de la teoría de unificación electrodébil pueda dar cuenta de la materia oscura. Las observaciones en astrofísica son consistentes con partículas de masa elevada (del orden de los núcleos atómicos) que interaccionan muy débilmente. Sin embargo, en teorías que van más allá del Modelo Estándar, sí pueden encontrarse partículas con estas características. Son tremendamente populares en el campo de la física teórica las teorías llamadas supersimétricas, que postulan la existencia de réplicas de todas las partículas elementales en otras, que tienen el valor opuesto de su espín. Opuesto quiere decir aquí que cambiamos su valor entero por otro semientero, y viceversa. Es decir, que transformamos bosones en fermiones, y recíprocamente, en esto consiste la supersimetría.
Pues bien, en el campo hipotético de la supersimetría sí existen partículas que pueden jugar el papel de la materia oscura, como por ejemplo los neutralinos.  La posibilidad de producir estas partículas en el acelerador, con energía y luminosidad adecuadas, se contempló, y se contempla actualmente, como un factor determinante para el desarrollo del proyecto. Bien es verdad que, de ser cierta la supersimetría, no solamente los neutralinos se manifestarían en el laboratorio, sino otras muchas nuevas partículas en la región de masa del TeV/c2 que otorgan al acelerador un potencial de descubrimiento espectacular.
Téngase bien en cuenta que, desde el punto de vista teórico, el actual Modelo Estándar presenta deficiencias notables, en lo que respecta, sobre todo, a la llamada física del sabor. Es decir, a la existencia de distintas generaciones de quarks y de leptones (análogos al electrón), con masas muy distintas. La jerarquía de masas de las partículas elementales no es comprendida en absoluto por el Modelo Estándar.
Podemos, entonces, resumir en 3 las principales preguntas que motivaron la construcción del LHC, relativas a la unificación de las fuerzas fundamentales:
-¿Es realmente el vacío el responsable de la ruptura de la simetría electrodébil, a través del bosón de Higgs? O, por el contrario, debemos pensar en otras alternativas, como, por ejemplo, nuevas dimensiones espaciotemporales, en el dominio de la gravitación.
-¿Qué es la materia oscura? ¿Puede ser asimilada a partículas pesadas que se produzcan en el acelerador, más allá del Modelo Estándar? ¿Es cierta la supersimetría?
-¿Porqué el universo adquirió más materia que antimateria en los primeros instantes, y no existen galaxias de antimateria? ¿Existen nuevas fuentes de violación de la simetría CP que el acelerador pueda poner de manifiesto?
A estos objetivos es necesario añadir otro más, de no menor importancia, como es el mejor conocimiento que puede aportar el LHC de la interacción fuerte (o nuclear), descrita por las interacciones de quarks y gluones. En particular, dado que la máquina puede también acelerar iones, pesados o ligeros, se abre la posibilidad de estudiar estados de la materia nuclear con mayor número de quarks pero, sobre todo, a mucha mayor temperatura T (por la elevada energía de las colisiones), que en proyectos anteriores. Por esta razón se marcó como objetivo adicional estudiar las propiedades del llamado plasma de quarks y gluones, observado anteriormente en el acelerador americano RHICen el BNL (New York), y en el propio CERN. Esta línea justificó desde el principio un experimento dedicado, ALICE, que hace uso del acelerador en periodos de tiempo cortos, pero suficientes para sus fines. Téngase en cuenta que las colisiones tienen en este caso una probabilidad de interacción mucho mayor, haciendo innecesarios haces muy intensos.
La tecnología del acelerador fue, hasta cierto punto, una extrapolación de las ya conocidas de aceleradores anteriores. Tanto los imanes dipolares, necesarios para curvar los protones sobre la circunferencia de 27 Km, como los cuadrupolos y sextupolos, necesarios para focalizarlos, así como las cavidades de radiofrecuencia que los aceleran, fueron diseñados para un bajo consumo energético. Esto exigió utilizar materiales superconductores, adoptándose la temperatura de operación del Helio líquido en todos los elementos del acelerador. Por su elevado número, esto supone una utilización masiva de criogenia, plantas de refrigeración para producir Helio líquido, y cables de conexión superconductores, que supera a cualquier otra aplicación industrial.


Fig.3. Imanes dipolares del LHC descendiendo a 100 m de profundidad para su instalación. Fuente: CERN.

Se facilitaron cuatro áreas experimentales para las colisiones, que utilizaban, de hecho, la obra civil de las ya existentes para el acelerador de LEP. Dos de ellas se dedicaron a experimentos de propósito general, concurrentes en sus objetivos de descubrir el Higgs y las partículas supersimétricas, pero diferentes en su diseño experimental: ATLAS y CMS. La tercera se dedicó a un experimento focalizado en aprovechar el elevadísimo flujo de quarks b a bajo ángulo, para estudiar con mayor precisión las asimetrías materia/antimateria y la física del sabor: LHCb. La cuarta se dedicó a analizar las colisiones de iones pesados, y el plasma de quarks y gluones: ALICE.
Tanto ATLAS como CMS fueron diseñados para aceptar los productos de las colisiones protón-protón sobre todo el ángulo sólido 4p, y utilizar la máxima intensidad de los haces de protones, aún produciéndose múltiples interacciones de interés en cada entrecruzamiento de los pulsos.  Para poder descubrir el Higgs y las nuevas partículas pesadas, era necesario reconstruir su masa, y ello requiere ser sensible a todas las direcciones de emisión posibles de sus productos de desintegración. Téngase en cuenta que la probabilidad de formación de partículas muy pesadas disminuye dramáticamente al aumentar su masa. Además, la utilización del bosón W como sonda de prueba exige reconstruir con precisión la energía no detectada de sus neutrinos, lo cual requiere detectores herméticos, que no dejen huecos en ninguna dirección. Todo esto encarece notablemente la construcción, si se tiene en cuenta además que los detectores deben ser resistentes a la radiación, dado el importante flujo de neutrones lentos que se produce en las zonas más internas. Sin llegar a compararse con los de una central nuclear, son exigibles medidas de protección radiológica sobre los materiales irradiados.



Fig.4. La parte central del experimento ATLAS, con el calorímetro de Ar líquido. Fuente: CERN.


Dentro de las condiciones generales anteriores, ATLAS y CMS adoptaron diseños bien distintos para sus detectores. Mientras ATLAS abordó la construcción de ambiciosos imanes toroidales superconductores en sus zonas externas, CMS se limitó a un dipolo solenoidal, también superconductor, con entrehierro magnetizado que permite el seguimiento de los muones (electrones pesados penetrantes) en su interior. Nótese que la medida magnética del momento relativo entre dos partículas es esencial para la determinación precisa de su masa. Ambos experimentos dedicaron especial atención a otro elemento altamente no trivial: la detección de pares de fotones opuestos, modo de desintegración esperado del Higgs, que requiere alta resolución en la masa. Mientras CMS adoptó elevadas cantidades de Plomo-Wolframio, ATLAS construyó un calorímetro de Argón líquido, detectores novedosos ambos, con sofisticados sistemas de extracción de la luz de centelleo.


Fig.5 El solenoide del experimento CMS, rodeado de cámaras de muones entre el hierro magnetizado. Fuente: CERN.

El caso de LHCb es bien distinto a los anteriores. Al tratarse de un detector de bajo ángulo, la detección de la energía faltante de los neutrinos se hace muy difícil, y no tiene mucho sentido que el detector sea hermético. Por el contrario, el énfasis se puso en un detector de microvértice de gran profundidad (22 planos), que aprovecha el mayor vuelo que tienen los quarks pesados en la dirección hacia delante, por la dilatación temporal relativista (los quarks b vuelan típicamente varios mm antes de desintegrarse, con una vida media en torno al picosegundo). Se maximizó la resolución en la masa con un imán dipolar vertical convencional, así como el recubrimiento para muones (partículas muy penetrantes) de bajo momento transverso respecto al haz. Además se instalaron detectores de luz Cherenkov (RICH) que permiten observar el anillo de fotones asociado a cada partícula, y distinguir muy bien piones de kaones (es decir, la presencia del quark s en las desintegraciones). Estos detectores no podrían instalarse fácilmente en una geometría con recubrimiento 4p. La detección de vértices secundarios (enfocada a los quarks b y c) se convierte en elemento distintivo, con la contrapartida de no poder aceptar múltiples interacciones en cada colisión.  Esto obliga a tomar datos con una intensidad del haz más reducida, lo cual se consigue modificando la óptica del acelerador en esta área experimental, para que la toma de datos pueda ser simultánea con ATLAS y CMS.


Fig.6. El imán convencional del experimento LHCb, que permite separar materia de antimateria. Fuente: CERN. 

El inicio de las colisiones, que tuvo lugar en 2009, resultó curiosamente fallido. Las conexiones superconductoras en determinados imanes no pudieron soportar la muy elevada energía prevista de 16 TeV, volviéndose conductores normales. Esto provocó algunas explosiones por la elevación súbita de temperatura, un accidente perfectamente previsto en los protocolos de seguridad de las alimentaciones eléctricas. Fue necesario, eso sí, un rediseño de las conexiones, y en 2010 se reiniciaron sin problemas las colisiones, aunque solo a 7 TeV, y con una intensidad reducida.


Fig.7. El experimento ALICE estudia las colisiones ión-ión. Los detectores se encuentran dentro de un solenoide horizontal. Fuente: CERN.


Las tomas de datos en 2011 y 2012 con una energía ya aumentada a 8 TeV, y con la intensidad prevista, produjeron el primer gran logro: el descubrimiento del bosón de Higgs con una masa de 125 GeV/c2. El anuncio a la comunidad internacional tuvo lugar el 4 de Julio de 2012 por parte de las colaboraciones ATLAS y CMS. El modo de desintegración observado inicialmente fue precisamente en dos fotones, el más difícil, como ya hemos comentado. Poco después se observó también su desintegración, con la misma masa, en pares de bosones W+W- y Z0Z0. Es curioso que puedan observarse estas desintegraciones, a pesar de que la suma de masas de los bosones sea superior a 125 GeV/c2, pero ello es posible gracias a las fluctuaciones cuánticas.


Fig.8.  Constantes de acoplo del bosón de Higgs a cada una de las partículas pesadas en que se ha medido, y predicción de la teoría de unificación electrodébil. Se indica abajo el cociente con la predicción. Fuente: Colaboración CMS, arXiv:1809.10733 [hep-ex] (2018).

Tras una parada del acelerador en el periodo 2013-2014, se reanudó la toma de datos en 2015-2018 (Run 2), alcanzándose la energía de 14 TeV, muy cercana a la originalmente prevista. La operación del acelerador y de los detectores ha sido excelente durante este periodo, llegando a superarse los valores previstos de luminosidad integrada en todos los experimentos. Ello ha permitido realizar cientos de publicaciones científicas que no solamente han extendido enormemente nuestro conocimiento de la física de partículas, sino que han cumplido una buena parte de los objetivos iniciales, explorando distancias muy cortas y poniendo a prueba la estructura interna de quarks, leptones y bosones. Y también, como en máquinas anteriores, se han producido algunos nuevos descubrimientos, fuera del programa inicial.
En Diciembre de 2018acaba de iniciarse la segunda parada larga del acelerador, que durará hasta 2021, y que permitirá mejorar de manera importante su operación futura, incluyendo todos los detectores. Es un momento adecuado para realizar un primer balance de resultados positivos para el LHC en su conjunto, que podemos resumir como sigue:
1) A los modos de desintegración inicialmente observados del bosón de Higgs H0 en fotones y bosones W/Z0, se han añadido, de forma crucial, sus desintegraciones en quarks y electrones pesados (leptones). Han quedado establecidos tres modos de desintegración en pares partícula-antipartícula, por ATLAS y CMS en 2018: quarks b, leptones t (el electrón más pesado), y quarks t (el quark más pesado). El acoplo de este último ha podido ser determinado al observarse la producción asociada H0 t. Los tres acoplos anteriores han resultado estar en buen acuerdo con la predicción de la teoría electrodébil, que señala un acoplo proporcional a sus masas. Esto viene a confirmar que la partícula descubierta se ajusta a su papel previsto en la ruptura de la simetría electrodébil, de otorgar masa no solo a los bosones, sino también a quarks y leptones[5][6], como mostramos en la Figura 8.
2) El descubrimiento de que no hay partículas supersimétricas con masas por debajo de aproximadamente 1 TeV/c2, dependiendo del tipo de partícula y, en algunos casos, del modelo de supersimetría. Se han publicado múltiples búsquedas de este tipo de partículas, por los experimentos ATLAS y CMS, todas ellas con resultado negativo. Las búsquedas incluyen, además de la supersimetría, otros tipos de nuevas partículas como leptoquarks, o nuevos bosones similares al W y el Z0[7]. Téngase en cuenta que la cota que citamos es muy aproximada, ya que depende, para cada partícula supersimétrica, de sus mecanismos de producción en el acelerador, dentro de la teoría que se pone a prueba. La exploración de masas mayores no se realizará aumentando la energía del acelerador, sino aumentando la intensidad de los haces, ya que sus acoplos disminuyen fuertemente con la masa, en cualquier teoría. Es todavía pronto para poder decir que la supersimetría queda descartada por el experimento.
3) El descubrimiento de que la violación de la simetría materia/antimateria observada en los quarks pesados (b y c) se ajusta bien a la teoría de Kobayashi-Maskawa, sin nuevas fuentes de asimetría. Las medidas realizadas en este sentido por el experimento LHCb han alcanzado gran precisión. Esta teoría se basa en la no universalidad de los acoplos del bosón (o bosones) de Higgs a las distintas generaciones de quarks, cuya jerarquía de masas no es bien comprendida. Sin embargo, los resultados descartan hasta el momento fuentes de nueva física. Al igual que en el caso anterior, el aumento de luminosidad mejorará la precisión en las medidas, y mantendrá el potencial de descubrimiento de acoplos que vayan más allá del Modelo Estándar.
4) El descubrimiento de estados pentaquark de la materia bariónica (similar al protón y al neutrón). El experimento LHCb ha encontrado en 2015 estados cuánticos que se desintegran en protón-charmonium (pJ/y) que no pueden ser entendidos como estados de 3 quarks, sino que contienen 5 quarks (uudcċ). No existían predicciones teóricas específicas para sus masas y números cuánticos. Estos estados exóticos no parecen romper los fundamentos de la teoría de la interacción fuerte de quarks y gluones, pero han supuesto un fuerte revulsivo a la misma, provocando la irrupción de un nuevo tipo de espectroscopía exótica.
5) La observación de algunas anomalías en procesos de desintegración del quark b, que se desvían significativamente del Modelo Estándar en su conjunto, y que aparecen asociadas con la no verificación de la universalidad entre el electrón, el muón y el taut [8], que deben tenerlos acoplos de los bosones W y Z0en la teoría electrodébil (por la minúscula masa de los neutrinos). Puestas de manifiesto por el experimento LHCb en los últimos años, su estudio ha trascendido a otros experimentos, en particular al experimento Belle en el acelerador KEK de Japón. En el momento presente se considera que los próximos años serán decisivos para dilucidar el origen de estas anomalías, que podría estar tanto en una subestimación de las incertidumbres teóricas y experimentales para fijar la predicción del Modelo Estándar, como en un efecto genuino de nueva física.
6) En lo que respecta a las colisiones de iones pesados, el experimento ALICE, así como su homólogo RHIC en Brookhaven NL, han avanzado significativamente en el conocimiento del plasma de quarks y gluones (QGP), habiéndose establecido que se trata en realidad de un líquido de baja viscosidad, donde los quarks y gluones se encuentran fuertemente acoplados con sus vecinos, en lugar del gas ideal que se pensaba originalmente [9]. El tema tiene gran importancia, porque este líquido es el que llenó el universo en sus primeros microsegundos, dando lugar a los primeros protones y neutrones. Continuarán los estudios en el LHC para caracterizarlo, de manera complementaria a los que se realicen a temperaturas más bajas, pero con mayor predominio de quarks sobre antiquarks (incluyendo quizá las estrellas de neutrones).
En base a los resultados hasta ahora obtenidos por el LHC, no debe sorprender que el CERN haya aprobado su continuación durante las próximas dos décadas. Esto implicará sucesivas fases de mejora, tanto en la luminosidad del acelerador como en los propios detectores, que se dotarán de las tecnologías más novedosas de instrumentación y de computación.
Auguramos por tanto un futuro brillante para el LHC, como acelerador primordial de nuestro conocimiento de la física de partículas que, no lo olvidemos, guarda muchas de las claves para conocer el universo en que vivimos. Una cuestión que subyace a todas las demás es comprender cómo se transfiere la energía sobre distancias muy cortas, inferiores al tamaño de los núcleos atómicos. Sabemos que la física es profundamente cuántica en este límite, y el LHC nos ha enseñado que el vacío juega en esto un papel esencial. Pero las preguntas se multiplican, e inevitablemente alcanzan los campos de la astrofísica, la física nuclear, la cosmología, y la física de neutrinos. ¿Cuál es el origen de la enorme energía condensada en las masas de algunos quarks?  ¿Y de las pequeñas masas de los neutrinos? Es necesario comprender el papel exacto que juega el mecanismo de Higgs en ello. ¿Cuántos bosones de Higgs existen, y cuáles son sus masas? ¿Tienen estructura interna? ¿Cuál es la física que gobierna el valor que esos campos presentan en el vacío, que el Modelo Estándar no nos explica en absoluto? Dado que los quarks pesados no forman parte de la materia ordinaria, que ha dado origen a la vida, ¿cuál es entonces su papel en la naturaleza? Urge saber qué es la materia oscura, y poder aislarla en el laboratorio, sea en un acelerador o en un experimento subterráneo. ¿Existen nuevas partículas pesadas, como los leptoquarks? Y para terminar: ¿qué es la energía oscura observada en astrofísica, y qué relación guarda con el vacío?
El LHC no dará respuesta a todas estas preguntas, pero podría dársela a algunas de ellas. Ante la constatación de que el avance en el conocimiento científico no hace sino generar nuevas preguntas, cada vez más fundamentales, nada mejor que admirar la humilde actitud de Isaac Newton en sus memorias: ``Me veo como un chico jugando a la orilla del mar, que encuentra casualmente una piedra más redonda, o una concha más bonita, mientras el gran océano de la verdad permanece oculto ante mí´´.

Referencias:
[1] Steven Weinberg, Premio Nobel de Física 1979, https://www.nobelprize.org/prizes/physics/1979/weinberg/facts/
[2] A. Ferrer y E. Ros ,``Física de partículas y de astropartículas´´, PUV (2014),
[3] B.Adeva,``La teoría de unificación electrodébil´´, Liberlibro (2017),
[4] M. Kobayashi y T. Maskawa, Premio Nobel de Física 2008,
[5] The CMS collaboration,CERN-EP-2018-263,https://arxiv.org/abs/1809.10733
[6] The ATLAS collaboration, ATLAS-CONF-2018-031,
[7] B2G new physics searches with heavy SM particles (CMS) https://bit.ly/2RbiBM4
[8] P. Koppenburg,Workshop on High-Energy Implications of Flavor Anomalies, Oct. 2018, LHCb-TALK-2018-501, https://cds.cern.ch/record/2644868/files/Koppenburg-181022CERN.pdf
[9] W. Busza, K. Rajagopal y W. dan der Schee, Annual Review of Nuclear and Particle Science Vol. 68:339-376 (Oct.,2018)10.1146/annurev-nucl-101917-020852.

Bernardo Adeva Andany
Catedrático de la Universidad de Santiago de Compostela, y miembro del IGFAE, Instituto Galego de Física de Altas Enerxías, unidad de excelencia María de Maeztu.

No hay comentarios:

Publicar un comentario