• John
  • Felde
  • University of Maryland
  • USA

Latest Posts

  • USLHC
  • USLHC
  • USA

  • James
  • Doherty
  • Open University
  • United Kingdom

Latest Posts

  • Andrea
  • Signori
  • Nikhef
  • Netherlands

Latest Posts

  • CERN
  • Geneva
  • Switzerland

Latest Posts

  • Aidan
  • Randle-Conde
  • Université Libre de Bruxelles
  • Belgium

Latest Posts

  • TRIUMF
  • Vancouver, BC
  • Canada

Latest Posts

  • Laura
  • Gladstone
  • MIT
  • USA

Latest Posts

  • Steven
  • Goldfarb
  • University of Michigan

Latest Posts

  • Fermilab
  • Batavia, IL
  • USA

Latest Posts

  • Seth
  • Zenz
  • Imperial College London
  • UK

Latest Posts

  • Nhan
  • Tran
  • Fermilab
  • USA

Latest Posts

  • Alex
  • Millar
  • University of Melbourne
  • Australia

Latest Posts

  • Ken
  • Bloom
  • USLHC
  • USA

Latest Posts

CERN (Francais) | Geneva | Switzerland

View Blog | Read Bio

Les deux saisons en physique des particules

La vie des physiciennes et physiciens est grandement simplifiée par le fait qu’il n’y a que deux saisons dans notre année: celle des conférences d’hiver et celle des conférences d’été. Durant chacune de ces saisons, on se bat contre la montre pour compléter à temps nos analyses pour les présenter à la prochaine conférence. Avec le flot torrentiel de données qui nous arrive ces jours-ci du LHC, on a à peine le temps de respirer!

On venait tout juste de compléter en mars les analyses pour la principale conférence d’hiver, celle de Moriond, qu’il nous fallait déjà revoir notre copie et améliorer nos techniques d’analyse en préparation pour les conférences d’été. Il y en a deux cet été; d’abord celle de la Société Européenne de Physique qui débutera le 21 juillet à Grenoble, en France, puis la conférence Lepton Photon, qui aura lieu à Mumbai en Inde à la fin août.

Chaque année, c’est la tradition: toutes les expériences espèrent pouvoir rapporter leurs meilleurs résultats à une de ces grandes conférences.

A première vue, on pourrait penser qu’il suffirait simplement d’ajouter les nouvelles données, vérifier qu’elles passent les critères de sélection déjà établis et que le tour serait joué. Ce serait trop facile…

Produire de nouveaux résultats demande un nombre incroyable de vérifications et contre vérifications. Lorsque de nouvelles données arrivent, et spécialement maintenant quand le LHC cherche de nouveaux moyens d’en produire davantage, les conditions sous lesquelles elles sont produites changent souvent. Ceci nous oblige à incorporer ces changements dans les simulations qui sont à la base de nos prédictions.

Car en fait, notre approche est assez simple : on a d’abord un modèle théorique qui nous permet de prédire de nouveaux phénomènes ou particules. Ensuite, en utilisant des simulations complexes qui reproduisent les signaux laissés par les vraies collisions dans nos détecteurs, on peut simuler le genre de collisions qui se produisent dans le LHC. On fait cela pour tous les types d’évènements connus. C’est ce que l’on appelle des simulations de Monte Carlo, en référence au fait que tous les procédés étudiés en physique des particules obéissent à des lois statistiques comme les jeux de hasard. Ces évènements ressemblent donc en tous points à ceux que l’on recueille dans nos détecteurs, sauf qu’ils ont été fabriqués de toutes pièces dans nos ordinateurs sur la base de nos connaissances actuelles. Il suffit finalement de comparer les prédictions théoriques avec les simulations de Monte Carlo pour voir si tout concorde.

La prochaine étape consiste à établir une série de critères de sélections dans le but d’isoler le type d’évènements qui nous intéressent. Ici, on doit trouver l’aiguille dans une grange remplie de bottes de foin! Pour ce faire, on étudie en détails les caractéristiques des évènements qui nous intéressent, et on les compare avec celles d’autres types d’évènements bien connus, et donc pas intéressants. Il faut donc isoler le signal de tous les autres types d’évènements, ceux qu’on appelle le bruit de fond.

Règle générale, le bruit de fond constitue la majorité des évènements recueillis. Et c’est bien normal puisque si ces évènements sont bien connus, c’est justement parce qu’ils sont produits en abondance et qu’on a déjà eu l’occasion de les étudier à fond dans des expériences précédentes.

Dernière étape : comparer la somme des simulation de tous les procédés connus qui réussissent à passer à travers les mailles du filet de nos analyses avec les vrais évènements recueillis par nos détecteurs. Si on est en train de tester un nouveau modèle, on compare les évènements qui passent nos critères de sélection avec les simulations, pour voir si on en trouve plus que ce qui est déjà connu. Bien sur, on étudie aussi en détails leur caractéristiques pour voir si l’excédent ressemble bien aux nouvelles particules que l’on cherche. D’autres fois, et ce fut la cas avec l’observation récente rapportée par la collaboration CDF de Fermilab, ils et elles cherchaient quelque chose de spécifique et déjà prévu, mais en ont trouvé encore bien plus. Comme si quelque chose d’inattendu s’était manifesté en plus du bruit de fond. Dans tous ces cas, il faut la plus grande rigueur et une extrême précision avant de pouvoir clamer une découverte.

Et c’est précisément ce qui nous prend tout notre temps: vérifier que tout est bon à chaque étape. On passe des jours et des semaines à comparer les vraies données aux simulations sous toutes leurs coutures. Et puisque qu’on améliore sans cesse nos algorithmes de reconstruction et nos simulations, la moindre modification donne lieu à une nouvelle série de vérifications pour s’assurer que tout reste complètement consistent avec les vraies données.

Partant de larges échantillons d’évènements simulés, on compare des centaines de quantités différentes, sélectionnées en une multitude de façons pour être absolument certaine que nos simulations reproduisent le moindre aspects de ces évènements, que ce soit le nombre moyen de particules produites à chaque événement, leur quantité de mouvement, leur répartition dans le détecteur, tout ce à quoi on peut penser et même encore plus! Et plus on accumule de données, plus ces comparaisons gagnent en précision, les rendant du coup encore plus exigeantes.

Et voilà donc pourquoi on n’a pas de répit entre ces deux saisons… Comme dirait ma mère: cent fois sur le métier remettez votre ouvrage. On doit sans cesse améliorer nos simulations et nos techniques de reconstruction, et penser aux cent mille façons de vérifier que tout reflète la réalité dans ses moindres détails.

Lorsqu’enfin on s’est satisfaite que tout fonctionne, il nous reste à convaincre nos collaborateurs. Pour ATLAS et CMS, cela veut dire 3000 personnes. Pour ALICE et LHCb, autour de mille! Il faut donc que ce soit convainquant! Nos collègues se doivent d’être pointilleux si on veut persuader nos compétiteurs!

En fin de course, le but est de produire des résultats à toute épreuve, où rien n’a été laissé au hasard. Fort vraisemblablement, les meilleurs résultats de l’année seront présentés bientôt aux grandes conférences d’été.

Peut-on s’attendre à de belles surprises? Difficile à dire mais on peut espérer. Nous sommes à la recherche de particules difficiles à coincer, celles qui nous ont échappées jusqu’à maintenant. Mais même si ne les trouve pas à temps pour ces conférences, on est certain de pouvoir annoncer comment nos recherches ont réduit les possibilités. C’est un peu comme si on cherchait un tout petit animal dans un territoire immense, recouvert de forêts, de grottes et de montagnes. Chaque centimètre carré de terrain doit être inspecté, chaque cachette explorée. Difficile mais pas impossible. Avec détermination, patience, rigueur et une puissance de calcul phénoménale, on peut y arriver, offrant aux théoriciens et théoriciennes la possibilité de dresser un meilleur portrait du monde qui nous entoure. Et comme avec toute nouvelle découverte, qui sait ce qu’il en découlera !

Pauline Gagnon

Pour être averti-e lors de la parution de nouveaux blogs, suivez-moi sur Twitter: @GagnonPauline

Share