• John
  • Felde
  • University of Maryland
  • USA

Latest Posts

  • James
  • Doherty
  • Open University
  • United Kingdom

Latest Posts

  • Flip
  • Tanedo
  • USLHC
  • USA

Latest Posts

  • Aidan
  • Randle-Conde
  • Université Libre de Bruxelles
  • Belgium

Latest Posts

  • Karen
  • Andeen
  • Karlsruhe Institute of Technology

Latest Posts

  • Seth
  • Zenz
  • Imperial College London
  • UK

Latest Posts

  • Alexandre
  • Fauré
  • CEA/IRFU
  • FRANCE

Latest Posts

  • Jim
  • Rohlf
  • USLHC
  • USA

Latest Posts

  • Emily
  • Thompson
  • USLHC
  • Switzerland

Latest Posts

CERN (Francais) | Geneva | Switzerland

View Blog | Read Bio

Que ferons-nous avec toutes ces données?

Aujourd’hui, CMS et ATLAS, les deux grandes expériences du Grand Collisionneur de Hadrons (ou Large Hadron Collider, LHC) ont chacune accumulé cinq femtobarn inverse de données, atteignant ainsi l’objectif fixé pour 2011.

Avoir plus de données est essentiel. Tous les phénomènes que nous étudions obéissent aux règles de la statistique et sont donc sujets à des fluctuations. En juillet, nous avions observé un petit excès d’évènements qui aurait pu être interpréter comme étant les premiers signes d’un boson de Higgs. Mais ces petits excès peuvent augmenter, diminuer ou tout simplement disparaître. Il n’y a rien que l’on puisse faire à part analyser plus de données pour en avoir le cœur net. Eventuellement, soit le signal devient tout à fait évident si l’effet était réel, soit il disparaît si ce n’était dû qu’à une fluctuation statistique.

Heureusement, quand on double l’échantillon de données, la marge d’erreur associée à ces fluctuations se trouve divisée par la racine carrée de deux. C’est d’ailleurs la raison pour laquelle on cherche toujours à accumuler plus de données, réduisant ainsi la taille des fluctuations possibles.

A première vue, on pourrait penser qu’il suffirait simplement d’ajouter les nouvelles données, vérifier qu’elles passent les critères de sélection déjà établis et que le tour serait joué. Ce serait trop facile…

Produire de nouveaux résultats demande un nombre incroyable de vérifications et contre vérifications.

Car en fait, notre approche est assez simple: on a d’abord un modèle théorique qui nous permet de prédire de nouveaux phénomènes ou particules. Ensuite, en utilisant des simulations complexes qui reproduisent les signaux laissés par les vraies collisions dans nos détecteurs, on peut simuler le genre de collisions qui se produisent dans le LHC. On fait cela pour tous les types d’évènements connus. Ces évènements ressemblent donc en tous points à ceux que l’on recueille dans nos détecteurs, sauf qu’ils ont été fabriqués de toutes pièces dans nos ordinateurs sur la base de nos connaissances actuelles.

La prochaine étape consiste à établir une série de critères de sélections dans le but d’isoler le type d’évènements qui nous intéressent. Ici, on doit trouver l’aiguille dans une grange remplie de bottes de foin! Pour ce faire, on étudie en détails les caractéristiques des évènements qui nous intéressent, et on les compare avec celles d’autres types d’évènements bien connus, et donc pas intéressants. Il faut donc isoler le signal de tous les autres types d’évènements, ceux qu’on appelle le bruit de fond.

Règle générale, le bruit de fond constitue la majorité des évènements recueillis. Et c’est bien normal puisque si ces évènements sont bien connus, c’est justement parce qu’ils sont produits en abondance et qu’on a déjà eu l’occasion de les étudier à fond dans des expériences précédentes.

Dernière étape : comparer la somme des simulations de tous les procédés connus qui réussissent à passer à travers les mailles du filet de nos analyses avec les vrais évènements recueillis par nos détecteurs. On compare les évènements qui passent nos critères de sélection avec les simulations, pour voir si on en trouve plus que ce qui est déjà connu. Bien sûr, on étudie aussi en détails leurs caractéristiques pour voir si l’excédent ressemble bien aux nouvelles particules que l’on cherche.

Et c’est précisément ce qui nous prend tout notre temps: vérifier que tout est bon à chaque étape. On passe des jours et des semaines à comparer les vraies données aux simulations sous toutes leurs coutures. Et comme on améliore sans cesse nos algorithmes de reconstruction et nos simulations, la moindre modification donne lieu à une nouvelle série de vérifications pour s’assurer que tout reste complètement cohérent avec les vraies données.

Et plus on accumule de données, plus ces comparaisons gagnent en précision, les rendant du coup encore plus exigeantes. En fin de course, le but est de produire des résultats à toute épreuve, où rien n’a été laissé au hasard.

Peut-on s’attendre à de belles surprises? Difficile à dire, mais on peut espérer. Nous sommes à la recherche de particules difficiles à coincer, celles qui nous ont échappées jusqu’à maintenant. Mais même si ne les trouve pas tout de suite, on est certain de pouvoir limiter les possibilités restantes. Avec beaucoup de travail, de rigueur et une puissance de calcul phénoménale, on peut y arriver, offrant aux théoriciens et théoriciennes la possibilité de dresser un meilleur portrait du monde qui nous entoure. Et plus on accumule de données, plus on se rapproche du but.

Pauline Gagnon

Pour être averti-e lors de la parution de nouveaux blogs, suivez-moi sur Twitter: @GagnonPauline ou par e-mail en ajoutant votre nom à cette liste de distribution


(certaines parties de ce blog proviennent d’anciens blogs publiés plus tôt cette année).

Share

Leave a Reply

Commenting Policy