El LHC: acelerador de partículas, acelerador
del conocimiento.
Durante
el periodo de aproximadamente 40 años que va desde 1973, con el descubrimiento
en el CERN de las corrientes débiles neutras, hasta 2012, en que se descubre,
también en el CERN, el bosón de Higgs, tuvo lugar una serie de observaciones
experimentales en distintos aceleradores de partículas, que provocaron una
fuerte expansión de nuestro conocimiento de la física. Fue el periodo de
consolidación de lo que se conoce con el nombre de teoría de unificación
electrodébil, que forma la parte más característica del llamado (de forma un
tanto displicente) Modelo Estándar de la física de partículas.
Vamos
a resumir cuáles fueron las ideas, e hitos principales, de este desarrollo
previo, que sin duda estuvo en el origen del actual colisionador LHC (Large
Hadron Collider) del CERN. Si hubiera que asociar un nombre a la parte teórica
de este desarrollo (cosa a veces necesaria, para fijar nuestras ideas), yo lo
asociaría con Steven Weinberg, autor del principal artículo seminal para la unificación
electrodébil en 1967 [1].
Hasta
entonces se conocía la interacción débil, que gobierna la desintegración beta
de los núcleos radiactivos emisores de electrones (transmutando un protón en
neutrón, o viceversa), y también la desintegración de muones (que son
electrones pesados) en electrones. En
ambos casos se produce la emisión de neutrinos. La interacción débil es apenas
conocida por el gran público, que tiende a confundirla con la energía nuclear.
Esta confusión es comprensible, porque ambas operan en el entorno de los núcleos.
La primera forma parte inevitable de los ciclos de reacciones termonucleares
que provocan, por ejemplo, la explosión de las supernovas, o la combustión del
hidrógeno solar para formar Helio. No hace falta decir lo bien que se conocía
en 1967 el electromagnetismo, que gobierna, entre otras cosas, las ondas de
radio y televisión, así como también la energía química de los átomos y de las
moléculas. Mientras el electromagnetismo transmite su energía por partículas
neutras (los fotones), la interacción débil lo hace por partículas cargadas (el
bosón W emitido por el protón o neutrón, que es luego convertido en electrón y
neutrino) [2] [3].
El
primer paso dado por Weinberg fue darse cuenta de que la interacción débil
tenía que admitir también una versión eléctricamente neutra, donde los
neutrinos pudiesen golpear electrones y núcleos, sin necesidad de intercambiar
con ellos bosones W cargados. La partícula intercambiada sería un bosón
eléctricamente neutro, como el fotón (llamado W3). De esta forma
tendríamos una terna de bosones (W+, W- y W3)
que otorgarían a la interacción débil una simetría similar al
electromagnetismo, pero con 3 fotones en lugar de uno solo.
Toda
la belleza del electromagnetismo, condensada en las famosas ecuaciones de
Maxwell, podía ahora extenderse a la interacción débil, simplemente admitiendo
que, en total, necesitamos tener 4 campos similares al campo electromagnético
(W+, W-, W3 y B), en lugar de únicamente el
fotón. Tres de ellos para dar cuenta de la interacción débil, y otro más B, de
cuyo acoplo surgiría el electromagnetismo. Weinberg se dio cuenta de que no era
posible la simple yuxtaposición de ambos tipos de interacción, sino que los
campos neutros W3 y B debían estar mezclados, de tal manera que el
fotón A y la corriente débil neutra observada Z0 fuesen
combinaciones lineales ortogonales de ambos.
Viendo
que la simetría a cuatro así obtenida era una extensión de la ya conocida para
el electromagnetismo, y que los cálculos funcionaban, Weinberg se enfrentó al
verdadero problema de fondo, el más difícil de resolver: mientras la
interacción débil actuaba solo a distancias muy cortas (por debajo del femtómetro),
en cambio el electromagnetismo actuaba a distancias tan largas como se quiera (piénsese
en las ondas de radio). ¿Cómo podría admitirse que ambos tuviesen igual
naturaleza? La forma de describir esto en la teoría cuántica y relativista es
constatar que mientras los bosones de la interacción débil tienen masa muy
elevada, en cambio el fotón tiene masa nula. Y la dificultad estriba en el
hecho de que unos tengan masa y otros no, pues ello rompe la simetría electrodébil.
La
solución la encontró Weinberg utilizando adecuadamente un principio ya
establecido por entonces en la teoría cuántica de los campos, que era el de
atribuir al vacío (el estado sin partículas que lo llena todo) la
responsabilidad de una simetría rota, como idea genérica. Él lo aplicó a este
caso concreto, postulando la existencia de 4 nuevos campos sin espín, también
dotados de carga débil, que interaccionan con bosones, electrones y quarks
dentro de la simetría electrodébil. Uno de ellos (el llamado bosón de Higgs)
toma un elevado valor en el vacío. Es decir, que el vacío no es inerte, sino
que contiene, distribuida por todo el espacio, carga débil neutra, y hace así
posible que la interacción débil tenga corto alcance, sin alterar la simetría
de las interacciones. Esto se conoce en la literatura como mecanismo de Higgs.
Además, Weinberg explica brillantemente porqué el fotón se queda sin masa, pues
la carga eléctrica que comunica no está, por el contrario, presente en el
vacío. Este hecho da origen a la singularidad del electromagnetismo. El otro
bosón neutro que sí adquiere masa es el Z0. Como hemos dicho, ambos
son rotaciones ortogonales de los campos neutros W3 y B, habiendo
tomado el ángulo de rotación qW el nombre de su
descubridor.
Weinberg
se adelantó bastante a su tiempo, pues fue necesario ese periodo de 40 años que
mencionaba antes, para que varias generaciones de aceleradores, en distintas
partes del mundo, fuesen desvelando los aspectos esenciales de la teoría. En
1984 se descubrieron los bosones W+- y Z0 en el CERN. En
este proceso se fueron descubriendo, además, nuevos quarks, incluyendo los más
pesados: el charm (c) en 1974, el bottom (b) en 1977 y el top (t) en 1992. Es
curioso que, siendo su teoría universal para quarks y electrones, Weinberg no
mencionase para nada los quarks en su modelo inicial. Esto revela hasta qué
punto el avance de la teoría se debió a un esfuerzo conjunto de muchos grandes
físicos.
Hablando
de los quarks, debemos mencionar aquí otro avance esencial de la teoría
electrodébil, cuya contribución mayor, en este caso, fue debida a los físicos
japoneses Kobayashi y Maskawa en 1973[4]. Se trataba de explicar, en dicha
teoría, porqué la tasa de desintegración de los quarks con su espín a derechas
es distinta de la de los antiquarks con su espín a izquierdas. Este fenómeno se
llama en la literatura violación de la simetría CP (carga-paridad), o
simplemente violación de la simetría materia/antimateria. No siendo
incompatible con la relatividad restringida de Einstein, digamos que resulta un
tanto extraño a ella, prueba de ello es que en la teoría electrodébil no se
encontró cabida fácil para él. Kobayashi y Maskawa dieron una explicación
vanguardista del fenómeno en base a la existencia de tres réplicas distintas de
quarks, y al hecho de que estos quarks tuviesen masas distintas. En esto se adelantaron
también a su tiempo, pues por aquél entonces no se había descubierto todavía ninguna
de las generaciones de quarks pesados.
Resulta
que esa ruptura de la simetría materia/antimateria es absolutamente clave para
explicar porqué las galaxias de nuestro universo están todas compuestas por
materia, y ninguna por antimateria, como parece ser el caso. En los primeros
instantes del universo, a muy alta temperatura, es natural pensar que hubo
igual número de quarks y antiquarks. Un lapso de tiempo más tarde estos se
aniquilaron entre sí, dando lugar a enormes cantidades de energía. Esto hubiera
hecho desaparecer los protones y neutrones que forman las galaxias, si no fuese
por el hecho de que, previamente, se produjo un pequeño exceso de materia sobre
antimateria. Este exceso, de aproximadamente 10-9, se denomina asimetría bariónica cosmológica, y
requiere inevitablemente de la violación de la simetría CP. Sin embargo, la
teoría de Kobayashi-Maskawa, aplicada a muy altas temperaturas, no permite
explicarlo, pues esta produce una violación CP mucho menor. Por tanto, tenemos
aquí un misterio que resolver, y muchos físicos pensábamos, al inicio del LHC,
que podríamos resolver este misterio encontrando nuevas formas de violación de
la simetría CP, que fuesen más allá de dicha teoría, utilizando para ello
quarks pesados.
Durante
las décadas de 1980 y 1990 se construyeron dos aceleradores consecutivos que
parecían ser las máquinas idóneas para dilucidar todos los aspectos anteriores
de la unificación electrodébil. En ambos casos se trataba de anillos de
colisión para producir la aniquilación electrón-positrón, a energías muy
elevadas, y disponiendo de corrientes también muy elevadas de antimateria (los
positrones), que llegaron a alcanzar decenas de miliamperios. El primero,
PETRA, operó en el laboratorio de DESY (Hamburgo) en el periodo 1979-1984, y el
segundo, LEP, en el CERN, durante el periodo 1989-2001. De hecho, el segundo
fue prácticamente una copia del primero, duplicando su energía y trasladando al
CERN su centro de operaciones. Hay que decir que el túnel de 27 Km que hubo que
excavar en la región próxima a Ginebra para alojar LEP es el mismo que hoy se
utiliza para el LHC, y no se trata de una obra civil menor.
Ambos
aceleradores tuvieron enorme éxito, pues pudieron establecer con gran precisión
la mayor parte de los aspectos cruciales de la teoría de unificación
electrodébil, incluyendo una auténtica radiografía del bosón Z0, y
del famoso ángulo de Weinberg qW de mezcla entre los
bosones W3 y B. Todo encajaba a la perfección, pero faltaba una
pieza esencial: el bosón de Higgs no aparecía por ninguna parte. Hay que decir
también que, además de dejar casi establecida la teoría de unificación
electrodébil, estos aceleradores realizaron nuevos descubrimientos de primera
fila: el del gluón, en PETRA, como partícula real que media la interacción
fuerte, y el de la existencia de solo tres réplicas de neutrinos ligeros, en
LEP.
Así
pues, durante la década de 1990se hizo acuciante la idea de construir un nuevo
gran acelerador de partículas, cuyo objetivo primario fuese dilucidar la
existencia del bosón de Higgs. De hecho, ya en el laboratorio Fermilab (en
Chicago) se puso en operación un acelerador protón-antiprotón con este fin, el
Tevatrón, pero se quería tener una máquina aún más potente, para garantizar el
éxito del proyecto. La idea que finalmente se impuso en la comunidad
internacional, provino del CERN: reutilizar el túnel de 27 Km de LEP para
instalar en él un nuevo acelerador protón-protón, a una energía de colisión muy
elevada (16 TeV).
A
diferencia del caso del bosón W, cuya masa pudo ser inferida con antelación a
partir del corto alcance de la interacción débil (la constante de Fermi GF),
la teoría electrodébil no es capaz de predecir la masa del bosón de Higgs, y
por eso era necesario dotar al acelerador de una energía suficientemente
elevada, que no dejase dudas sobre la existencia o no del bosón. Utilizar exclusivamente
protones, en este sentido, en lugar de provocar la aniquilación
protón-antiprotón (como en el Tevatrón), se juzgó conveniente para poder elevar
todavía más la intensidad de los haces colisionantes. La decisión de construir
la máquina en el CERN, tomada en 2001 por su entonces director general, el
físico italiano Luciano Maiani, no estuvo exenta de polémica. Muchos pensaron en
aquel momento que era más útil proseguir la toma de datos con LEP, aumentando
progresivamente su energía y su intensidad. Visto en retrospectiva, hoy podemos
decir que la decisión tomada fue un éxito rotundo.
Hubo
otros aspectos que influyeron también en la construcción del acelerador. Las
observaciones en astrofísica por entonces ya ponían de manifiesto con claridad
la necesidad de introducir la llamada materia oscura, tanto para describir la
velocidad de rotación de las galaxias, como para dar cuenta del fenómeno de las
imágenes dobles originadas por la gravitación de Einstein. No es evidente en absoluto que ninguna de las
partículas que forman parte de la teoría de unificación electrodébil pueda dar
cuenta de la materia oscura. Las observaciones en astrofísica son consistentes
con partículas de masa elevada (del orden de los núcleos atómicos) que
interaccionan muy débilmente. Sin embargo, en teorías que van más allá del Modelo
Estándar, sí pueden encontrarse partículas con estas características. Son
tremendamente populares en el campo de la física teórica las teorías llamadas
supersimétricas, que postulan la existencia de réplicas de todas las partículas
elementales en otras, que tienen el valor opuesto de su espín. Opuesto quiere
decir aquí que cambiamos su valor entero por otro semientero, y viceversa. Es
decir, que transformamos bosones en fermiones, y recíprocamente, en esto
consiste la supersimetría.
Pues
bien, en el campo hipotético de la supersimetría sí existen partículas que
pueden jugar el papel de la materia oscura, como por ejemplo los
neutralinos. La posibilidad de producir
estas partículas en el acelerador, con energía y luminosidad adecuadas, se
contempló, y se contempla actualmente, como un factor determinante para el desarrollo
del proyecto. Bien es verdad que, de ser cierta la supersimetría, no solamente
los neutralinos se manifestarían en el laboratorio, sino otras muchas nuevas
partículas en la región de masa del TeV/c2 que otorgan al acelerador
un potencial de descubrimiento espectacular.
Téngase
bien en cuenta que, desde el punto de vista teórico, el actual Modelo Estándar
presenta deficiencias notables, en lo que respecta, sobre todo, a la llamada
física del sabor. Es decir, a la existencia de distintas generaciones de quarks
y de leptones (análogos al electrón), con masas muy distintas. La jerarquía de
masas de las partículas elementales no es comprendida en absoluto por el Modelo
Estándar.
Podemos, entonces, resumir en 3 las
principales preguntas que motivaron la construcción del LHC, relativas a la
unificación de las fuerzas fundamentales:
-¿Es realmente el
vacío el responsable de la ruptura de la simetría electrodébil, a través del
bosón de Higgs? O, por el contrario, debemos pensar en otras alternativas,
como, por ejemplo, nuevas dimensiones espaciotemporales, en el dominio de la gravitación.
-¿Qué es la materia
oscura? ¿Puede ser asimilada a partículas pesadas que se produzcan en el
acelerador, más allá del Modelo Estándar? ¿Es cierta la supersimetría?
-¿Porqué el universo
adquirió más materia que antimateria en los primeros instantes, y no existen
galaxias de antimateria? ¿Existen nuevas fuentes de violación de la simetría CP
que el acelerador pueda poner de manifiesto?
A
estos objetivos es necesario añadir otro más, de no menor importancia, como es
el mejor conocimiento que puede aportar el LHC de la interacción fuerte (o nuclear),
descrita por las interacciones de quarks y gluones. En particular, dado que la
máquina puede también acelerar iones,
pesados o ligeros, se abre la posibilidad de estudiar estados de la materia
nuclear con mayor número de quarks pero, sobre todo, a mucha mayor temperatura
T (por la elevada energía de las colisiones), que en proyectos anteriores. Por
esta razón se marcó como objetivo adicional estudiar las propiedades del
llamado plasma de quarks y gluones, observado anteriormente en el acelerador
americano RHICen el BNL (New York), y en el propio CERN. Esta línea justificó
desde el principio un experimento dedicado, ALICE, que hace uso del acelerador
en periodos de tiempo cortos, pero suficientes para sus fines. Téngase en
cuenta que las colisiones tienen en este caso una probabilidad de interacción
mucho mayor, haciendo innecesarios haces muy intensos.
La tecnología del acelerador fue, hasta
cierto punto, una extrapolación de las ya conocidas de aceleradores anteriores.
Tanto los imanes dipolares, necesarios para curvar los protones sobre la circunferencia
de 27 Km, como los cuadrupolos y sextupolos, necesarios para focalizarlos, así
como las cavidades de radiofrecuencia que los aceleran, fueron diseñados para
un bajo consumo energético. Esto exigió utilizar materiales superconductores,
adoptándose la temperatura de operación del Helio líquido en todos los
elementos del acelerador. Por su elevado número, esto supone una utilización
masiva de criogenia, plantas de refrigeración para producir Helio líquido, y
cables de conexión superconductores, que supera a cualquier otra aplicación
industrial.
Fig.3. Imanes dipolares
del LHC descendiendo a 100 m de profundidad para su instalación. Fuente: CERN.
Se facilitaron cuatro áreas experimentales
para las colisiones, que utilizaban, de hecho, la obra civil de las ya
existentes para el acelerador de LEP. Dos de ellas se dedicaron a experimentos
de propósito general, concurrentes en sus objetivos de descubrir el Higgs y las
partículas supersimétricas, pero diferentes en su diseño experimental: ATLAS y
CMS. La tercera se dedicó a un experimento focalizado en aprovechar el
elevadísimo flujo de quarks b a bajo ángulo, para estudiar con mayor precisión
las asimetrías materia/antimateria y la física del sabor: LHCb. La cuarta se
dedicó a analizar las colisiones de iones pesados, y el plasma de quarks y
gluones: ALICE.
Tanto ATLAS como CMS fueron diseñados para
aceptar los productos de las colisiones protón-protón sobre todo el ángulo
sólido 4p, y utilizar la máxima intensidad de los haces de
protones, aún produciéndose múltiples interacciones de interés en cada
entrecruzamiento de los pulsos. Para
poder descubrir el Higgs y las nuevas partículas pesadas, era necesario
reconstruir su masa, y ello requiere ser sensible a todas las direcciones de
emisión posibles de sus productos de desintegración. Téngase en cuenta que la
probabilidad de formación de partículas muy pesadas disminuye dramáticamente al
aumentar su masa. Además, la utilización del bosón W como sonda de prueba exige
reconstruir con precisión la energía no detectada de sus neutrinos, lo cual
requiere detectores herméticos, que no dejen huecos en ninguna dirección. Todo
esto encarece notablemente la construcción, si se tiene en cuenta además que
los detectores deben ser resistentes a la radiación, dado el importante flujo
de neutrones lentos que se produce en las zonas más internas. Sin llegar a
compararse con los de una central nuclear, son exigibles medidas de protección
radiológica sobre los materiales irradiados.
Dentro de las condiciones generales
anteriores, ATLAS y CMS adoptaron diseños bien distintos para sus detectores.
Mientras ATLAS abordó la construcción de ambiciosos imanes toroidales
superconductores en sus zonas externas, CMS se limitó a un dipolo solenoidal,
también superconductor, con entrehierro magnetizado que permite el seguimiento
de los muones (electrones pesados penetrantes) en su interior. Nótese que la
medida magnética del momento relativo entre dos partículas es esencial para la
determinación precisa de su masa. Ambos experimentos dedicaron especial
atención a otro elemento altamente no trivial: la detección de pares de fotones
opuestos, modo de desintegración esperado del Higgs, que requiere alta
resolución en la masa. Mientras CMS adoptó elevadas cantidades de
Plomo-Wolframio, ATLAS construyó un calorímetro de Argón líquido, detectores
novedosos ambos, con sofisticados sistemas de extracción de la luz de
centelleo.
Fig.5 El solenoide del experimento CMS, rodeado de cámaras de muones entre el hierro magnetizado. Fuente: CERN.
El caso de LHCb es bien distinto a los
anteriores. Al tratarse de un detector de bajo ángulo, la detección de la
energía faltante de los neutrinos se hace muy difícil, y no tiene mucho sentido
que el detector sea hermético. Por el contrario, el énfasis se puso en un
detector de microvértice de gran profundidad (22 planos), que aprovecha el
mayor vuelo que tienen los quarks pesados en la dirección hacia delante, por la
dilatación temporal relativista (los quarks b vuelan típicamente varios mm
antes de desintegrarse, con una vida media en torno al picosegundo). Se
maximizó la resolución en la masa con un imán dipolar vertical convencional,
así como el recubrimiento para muones (partículas muy penetrantes) de bajo
momento transverso respecto al haz. Además se instalaron detectores de luz
Cherenkov (RICH) que permiten observar el anillo de fotones asociado a cada
partícula, y distinguir muy bien piones de kaones (es decir, la presencia del
quark s en las desintegraciones). Estos detectores no podrían instalarse fácilmente
en una geometría con recubrimiento 4p. La detección de vértices secundarios
(enfocada a los quarks b y c) se convierte en elemento distintivo, con la
contrapartida de no poder aceptar múltiples interacciones en cada
colisión. Esto obliga a tomar datos con
una intensidad del haz más reducida, lo cual se consigue modificando la óptica
del acelerador en esta área experimental, para que la toma de datos pueda ser
simultánea con ATLAS y CMS.
Fig.6. El imán convencional del experimento LHCb, que permite separar materia de antimateria. Fuente: CERN.
El
inicio de las colisiones, que tuvo lugar en 2009, resultó curiosamente fallido.
Las conexiones superconductoras en determinados imanes no pudieron soportar la
muy elevada energía prevista de 16 TeV, volviéndose conductores normales. Esto
provocó algunas explosiones por la elevación súbita de temperatura, un
accidente perfectamente previsto en los protocolos de seguridad de las
alimentaciones eléctricas. Fue necesario, eso sí, un rediseño de las
conexiones, y en 2010 se reiniciaron sin problemas las colisiones, aunque solo
a 7 TeV, y con una intensidad reducida.
Fig.7. El experimento ALICE estudia las colisiones ión-ión. Los detectores se encuentran dentro de un solenoide horizontal. Fuente: CERN.
Las
tomas de datos en 2011 y 2012 con una energía ya aumentada a 8 TeV, y con la
intensidad prevista, produjeron el primer gran logro: el descubrimiento del
bosón de Higgs con una masa de 125 GeV/c2. El anuncio a la comunidad
internacional tuvo lugar el 4 de Julio de 2012 por parte de las colaboraciones
ATLAS y CMS. El modo de desintegración observado inicialmente fue precisamente
en dos fotones, el más difícil, como ya hemos comentado. Poco después se
observó también su desintegración, con la misma masa, en pares de bosones W+W-
y Z0Z0. Es curioso que puedan observarse estas
desintegraciones, a pesar de que la suma de masas de los bosones sea superior a
125 GeV/c2, pero ello es posible gracias a las fluctuaciones
cuánticas.
Fig.8. Constantes de acoplo del bosón de Higgs a cada
una de las partículas pesadas en que se ha medido, y predicción de la teoría de
unificación electrodébil. Se indica abajo el cociente con la predicción. Fuente: Colaboración CMS, arXiv:1809.10733
[hep-ex] (2018).
Tras
una parada del acelerador en el periodo 2013-2014, se reanudó la toma de datos
en 2015-2018 (Run 2), alcanzándose la energía de 14 TeV, muy cercana a la
originalmente prevista. La operación del acelerador y de los detectores ha sido
excelente durante este periodo, llegando a superarse los valores previstos de
luminosidad integrada en todos los experimentos. Ello ha permitido realizar
cientos de publicaciones científicas que no solamente han extendido enormemente
nuestro conocimiento de la física de partículas, sino que han cumplido una
buena parte de los objetivos iniciales, explorando distancias muy cortas y
poniendo a prueba la estructura interna de quarks, leptones y bosones. Y también,
como en máquinas anteriores, se han producido algunos nuevos descubrimientos,
fuera del programa inicial.
En Diciembre de 2018acaba de iniciarse la
segunda parada larga del acelerador, que durará hasta 2021, y que permitirá
mejorar de manera importante su operación futura, incluyendo todos los
detectores. Es un momento adecuado para realizar un primer balance de
resultados positivos para el LHC en su conjunto, que podemos resumir como
sigue:
1) A los modos de desintegración inicialmente observados del
bosón de Higgs H0 en fotones y bosones W/Z0, se han
añadido, de forma crucial, sus desintegraciones en quarks y electrones pesados
(leptones). Han quedado establecidos tres modos de desintegración en pares
partícula-antipartícula, por ATLAS y CMS en 2018: quarks b, leptones t (el electrón más pesado), y quarks t (el
quark más pesado). El acoplo de este último ha podido ser determinado al
observarse la producción asociada H0 t. Los tres acoplos anteriores
han resultado estar en buen acuerdo con la predicción de la teoría
electrodébil, que señala un acoplo proporcional a sus masas. Esto viene a
confirmar que la partícula descubierta se ajusta a su papel previsto en la
ruptura de la simetría electrodébil, de otorgar masa no solo a los bosones,
sino también a quarks y leptones[5][6], como mostramos en la Figura 8.
2) El descubrimiento de que no hay partículas
supersimétricas con masas por debajo de aproximadamente 1 TeV/c2,
dependiendo del tipo de partícula y, en algunos casos, del modelo de
supersimetría. Se han publicado múltiples búsquedas de este tipo de partículas,
por los experimentos ATLAS y CMS, todas ellas con resultado negativo. Las
búsquedas incluyen, además de la supersimetría, otros tipos de nuevas
partículas como leptoquarks, o nuevos bosones similares al W y el Z0[7].
Téngase en cuenta que la cota que citamos es
muy aproximada, ya que depende, para cada partícula supersimétrica, de sus
mecanismos de producción en el acelerador, dentro de la teoría que se pone a
prueba. La exploración de masas mayores no se realizará aumentando la energía
del acelerador, sino aumentando la intensidad de los haces, ya que sus acoplos
disminuyen fuertemente con la masa, en cualquier teoría. Es todavía pronto para
poder decir que la supersimetría queda descartada por el experimento.
3) El descubrimiento de que la violación de la simetría
materia/antimateria observada en los quarks pesados (b y c) se ajusta bien a la
teoría de Kobayashi-Maskawa, sin nuevas fuentes de asimetría. Las medidas
realizadas en este sentido por el experimento LHCb han alcanzado gran
precisión. Esta teoría se basa en la no universalidad de los acoplos del bosón
(o bosones) de Higgs a las distintas generaciones de quarks, cuya jerarquía de
masas no es bien comprendida. Sin embargo, los resultados descartan hasta el
momento fuentes de nueva física. Al igual que en el caso anterior, el aumento
de luminosidad mejorará la precisión en las medidas, y mantendrá el potencial
de descubrimiento de acoplos que vayan más allá del Modelo Estándar.
4) El descubrimiento de estados pentaquark de la materia
bariónica (similar al protón y al neutrón). El experimento LHCb ha encontrado
en 2015 estados cuánticos que se desintegran en protón-charmonium (pJ/y) que no pueden ser entendidos como estados
de 3 quarks, sino que contienen 5 quarks (uudcċ). No existían predicciones
teóricas específicas para sus masas y números cuánticos. Estos estados exóticos
no parecen romper los fundamentos de la teoría de la interacción fuerte de
quarks y gluones, pero han supuesto un fuerte revulsivo a la misma, provocando
la irrupción de un nuevo tipo de espectroscopía exótica.
5) La observación de algunas anomalías en procesos de
desintegración del quark b, que se desvían significativamente del Modelo
Estándar en su conjunto, y que aparecen asociadas con la no verificación de la
universalidad entre el electrón, el muón y el taut [8], que deben tenerlos acoplos de los
bosones W y Z0en la teoría electrodébil (por la minúscula masa de
los neutrinos). Puestas de manifiesto por el experimento LHCb en los últimos
años, su estudio ha trascendido a otros experimentos, en particular al
experimento Belle en el acelerador KEK de Japón. En el momento presente se
considera que los próximos años serán decisivos para dilucidar el origen de
estas anomalías, que podría estar tanto en una subestimación de las
incertidumbres teóricas y experimentales para fijar la predicción del Modelo
Estándar, como en un efecto genuino de nueva física.
6) En lo que respecta a las colisiones de iones pesados,
el experimento ALICE, así como su homólogo RHIC en Brookhaven NL, han avanzado
significativamente en el conocimiento del plasma de quarks y gluones (QGP),
habiéndose establecido que se trata en realidad de un líquido de baja
viscosidad, donde los quarks y gluones se encuentran fuertemente acoplados con
sus vecinos, en lugar del gas ideal que se pensaba originalmente [9]. El tema
tiene gran importancia, porque este líquido es el que llenó el universo en sus
primeros microsegundos, dando lugar a los primeros protones y neutrones.
Continuarán los estudios en el LHC para caracterizarlo, de manera
complementaria a los que se realicen a temperaturas más bajas, pero con mayor
predominio de quarks sobre antiquarks (incluyendo quizá las estrellas de
neutrones).
En
base a los resultados hasta ahora obtenidos por el LHC, no debe sorprender que
el CERN haya aprobado su continuación durante las próximas dos décadas. Esto
implicará sucesivas fases de mejora, tanto en la luminosidad del acelerador
como en los propios detectores, que se dotarán de las tecnologías más novedosas
de instrumentación y de computación.
Auguramos
por tanto un futuro brillante para el LHC, como acelerador primordial de
nuestro conocimiento de la física de partículas que, no lo olvidemos, guarda
muchas de las claves para conocer el universo en que vivimos. Una cuestión que
subyace a todas las demás es comprender cómo se transfiere la energía sobre
distancias muy cortas, inferiores al tamaño de los núcleos atómicos. Sabemos
que la física es profundamente cuántica en este límite, y el LHC nos ha enseñado
que el vacío juega en esto un papel esencial. Pero las preguntas se
multiplican, e inevitablemente alcanzan los campos de la astrofísica, la física
nuclear, la cosmología, y la física de neutrinos. ¿Cuál es el origen de la
enorme energía condensada en las masas de algunos quarks? ¿Y de las pequeñas masas de los neutrinos? Es
necesario comprender el papel exacto que juega el mecanismo de Higgs en ello.
¿Cuántos bosones de Higgs existen, y cuáles son sus masas? ¿Tienen estructura
interna? ¿Cuál es la física que gobierna el valor que esos campos presentan en
el vacío, que el Modelo Estándar no nos explica en absoluto? Dado que los
quarks pesados no forman parte de la materia ordinaria, que ha dado origen a la
vida, ¿cuál es entonces su papel en la naturaleza? Urge saber qué es la materia
oscura, y poder aislarla en el laboratorio, sea en un acelerador o en un
experimento subterráneo. ¿Existen nuevas partículas pesadas, como los
leptoquarks? Y para terminar: ¿qué es la energía oscura
observada en astrofísica, y qué relación guarda con el vacío?
El
LHC no dará respuesta a todas estas preguntas, pero podría dársela a algunas de
ellas. Ante la constatación de que el avance en el conocimiento científico no
hace sino generar nuevas preguntas, cada vez más fundamentales, nada mejor que
admirar la humilde actitud de Isaac Newton en sus memorias: ``Me
veo como un chico jugando a la orilla del mar, que encuentra casualmente una
piedra más redonda, o una concha más bonita, mientras el gran océano de la
verdad permanece oculto ante mí´´.
Referencias:
[1] Steven Weinberg, Premio Nobel de Física 1979,
https://www.nobelprize.org/prizes/physics/1979/weinberg/facts/
[2] A. Ferrer y E. Ros ,``Física de partículas y
de astropartículas´´, PUV (2014),
[3] B.Adeva,``La teoría de unificación electrodébil´´,
Liberlibro (2017),
[4] M. Kobayashi y T. Maskawa, Premio Nobel de
Física 2008,
[6] The ATLAS collaboration, ATLAS-CONF-2018-031,
[8] P. Koppenburg,Workshop on High-Energy Implications
of Flavor Anomalies, Oct. 2018, LHCb-TALK-2018-501, https://cds.cern.ch/record/2644868/files/Koppenburg-181022CERN.pdf
[9] W. Busza, K. Rajagopal y W. dan der Schee,
Annual Review of Nuclear and Particle Science Vol. 68:339-376 (Oct.,2018)10.1146/annurev-nucl-101917-020852.
Bernardo Adeva Andany
Catedrático de la Universidad de Santiago de Compostela, y miembro del
IGFAE, Instituto Galego de Física de Altas Enerxías, unidad de excelencia María
de Maeztu.
No hay comentarios:
Publicar un comentario