## Posts Tagged ‘LHCb’

### The Standard Model checked to the ninth decimal

Tuesday, July 30th, 2013

At the European Physics Society conference in Stockholm, two experiments operating at the Large Hadron Collider (LHC) at CERN, LHCb and CMS reported on July 19 solid evidence that the Standard Model of particle physics still shows no sign of wear and tear by checking a prediction of the model to the ninth decimal place.

The Standard Model makes very accurate predictions but theorists know this theory has its limits. At higher energy, its equations start breaking down. Theorists are convinced that despite all the success of this model, it is not giving us the big picture. Hence, scientists have been trying to find a “secret passage” to the next level, a more encompassing and more robust theory.

One way to achieve this is to look for a small deviation in a measured quantity from the value predicted by the Standard Model and a good place to find such a deviation is in an extremely rare process. It is much easier to hear a faint noise in a quiet place than in the middle of traffic during rush hour.

Specifically, the scientists measured how often composite particles denoted Bs and Bd (pronounced “b sub s and b sub d)” mesons decay into a pair of muons (particles similar to electrons but about 200 times heavier). A Bs meson is a composite particle containing b and s quarks while Bd mesons are made of b and d quarks. These heavy particles are unstable and quickly break apart into lighter particles.

The Standard Model predicts that Bs mesons decay into a pair of muons about three times in a billion while for Bd mesons, it occurs thirty times less often. This gives two excellent places to look for small deviations that could reveal the existence of new phenomena not foreseen within the Standard Model.

All theories going beyond the Standard Model come with new particles that would affect how other particles decay, i.e. how they break apart. Decays are very much like making change for a big coin. Imagine a coin of one euro. It can be broken into pieces of 1, 5, 10, 20 or 50 cents Now, say a new 25-cent coin is introduced. An automatic teller would not give change for one euro in a particular way (say with coins of 50, 20, 20 and 10 cents) as often as before just because new possibilities now exist.

By measuring how often a Bs meson decays into muons, scientists were hoping to see the first deviations from the predictions of the Standard Model. On the contrary, the two experiments confirmed this prediction within experimental errors.

CMS, whose name stands for Compact Muon Spectrometer, and LHCb, an experiment designed specifically to study particles containing b quarks, are particularly suited for these types of measurements. CMS got (3.0 +1.0-0.9) x 10-9 and LHCb obtained (2.9 +1.1-1.0) x 10-9, while the Standard Model prediction stands at (3.5 ± 0.3) x 10-9. The significances of the CMS and LHCb signals correspond to 4.3σ and 4.0σ, respectively, which means, the excesses of events that are seen most likely come from signal and not from background. Two other experiments presented new results based on smaller data samples. ATLAS (using a partial data sample) and D0 (final result with their full data sample) and they obtained the same upper limit at 15 x 10-9.

The results obtained by LHCb and CMS, as well as their combined value, is compared to the prediction from the Standard Model shown by the vertical black line and its theoretical uncertainty (green band).

For Bd decays, 95% confidence level upper limits were set at 7.4 x 10-10 for LHCb while CMS obtained 11 x 10-10. The Standard Model predicts this to be less than 1 x 10-10.

All these values are consistent with the Standard Model predictions but they do not yet rule out new physics. After the LHC resumes operation at higher energy in 2015, the LHC experiments will continue improving their Bs measurements. In particular, they will aim to get a first measurement for Bd mesons instead of an upper limit, and then evaluate the ratio for the Bs and Bd mesons, such that some of the experimental and theoretical uncertainties will cancel out, to obtain an even more precise measurement. Since no deviations were found in the ninth decimal position, it means the experiments need to check the tenth decimal position.

More details can be found on the CMS and LHCb websites.

Pauline Gagnon

### Le Modèle standard vérifié à la neuvième décimale près

Tuesday, July 30th, 2013

Lors de la conférence de la Société européenne de physique à Stockholm, deux expériences du Grand collisionneur de hadrons (LHC) du CERN, LHCb and CMS ont apporté des preuves solides que le Modèle standard de la physique des particules ne montre toujours aucun signe de fatigue en poussant la vérification de l’une des prédictions du modèle jusqu’à la neuvième décimale.

Le modèle standard permet des prédictions très précises, mais les théoricien-ne-s savent que cette théorie a ses limites. À plus haute énergie, ses équations commencent à flancher. Les théoricien-ne-s sont donc convaincu-e-s que malgré tout le succès de ce modèle, il ne nous donne qu’une image incomplète du monde matériel. Par conséquent, les scientifiques cherchent l’entrée du “passage secret” vers un niveau supérieur, révélant une théorie plus globale et plus robuste.

Une façon d’y parvenir est de rechercher le moindre petit écart par rapport aux prévisions théoriques. Et un bon endroit pour trouver une petite déviation est en regardant parmi les procédés extrêmement rares. Il est beaucoup plus facile de déceler un léger murmure dans un endroit calme qu’au beau milieu de la circulation aux heures de pointe.

Plus précisément, les scientifiques ont mesuré la fréquence de désintégrations de particules composites appelées mésons Bs et Bd en une paire de muons (particules similaires aux électrons mais 200 fois plus lourdes). Un méson Bs est une particule composite contenant un quark b et un quark s alors que les mésons Bd sont faits de quarks b et d. Ces particules lourdes sont instables et se désintègrent rapidement en particules plus légères.

Le modèle standard prédit que les mésons Bs se brisent et donnent une paire de muons environ trois fois sur un milliard de désintégrations tandis que pour les mésons Bd, cela devrait se produire environ trente fois moins souvent. Voilà donc deux excellents endroits où l’existence de phénomènes nouveaux non prévus dans le Modèle standard pourrait créer de petites déviations par rapport aux prédictions.

Toutes les théories allant au-delà du Modèle standard s’accompagnent de nouvelles particules. Ces particules affecteraient les possibilités de désintégrations des autres particules, c’est à dire comment elles se brisent. Une désintégration est très semblable à la façon de faire la monnaie pour une grosse pièce. Imaginez une pièce d’un euro. Elle peut être échangée pour des pièces de 1, 5, 10, 20 ou 50 centimes. Mais si on introduit des pièces de 25 centimes, un distributeur automatique ne donnerait plus la monnaie d’un euro en pièces de 50, 20, 20 et 10 centimes aussi souvent qu’avant parce que de nouvelles possibilités existeraient.

En mesurant combien de fois les mésons Bs et Bd se désintègrent en muons, les scientifiques espéraient voir pour la première fois un écart par rapport aux prédictions du Modèle standard. Au contraire, les deux expériences ont confirmé cette prédiction, du moins à l’intérieur des marges d’erreur.

CMS, qui signifie Spectromètre Compact pour Muons, et LHCb, une expérience conçue spécifiquement pour étudier les quarks b, sont tout particulièrement désignées pour ce genre de mesures. CMS a obtenu (3,0 +1,0-0,9) x 10-9 et LHCb (2,9 +1,1-1,0) x 10-9 alors que la prédiction du Modèle standard s’établit à (3,5 ±  0,3)  x 10-9. Cela correspond à des mesures à 4,3σ et 4,0σ, donc venant beaucoup plus probablement du signal plutôt que d’une fluctuation du bruit de fond. Deux autres expériences ont présenté de nouveaux résultats mais basés sur de plus petits échantillons de données. ATLAS (données partielles) et D0 (données finales) mesurent toutes les deux la même limite supérieure, soit 15 x 10-9.

Les résultats obtenus par LHCb et CMS pour les mésons Bs, ainsi que la prédiction théorique du Modèle standard (ligne verticale en noir) avec la marge d’incertitude théorique (bande verte).

Pour les désintégrations de mésons Bd, les collaborations LHCb et CMS ont toutes les deux pu placer  la limite supérieure à 7,4 x 10-10 pour LHCb et 11 x 10-10 pour CMS avec un indice de confiance de 95%.  La prédiction du Modèle standard se situe à moins de 1 x 10-10.

Tous ces résultats sont en accord avec les prédictions du Modèle standard. Après le redémarrage du LHC à plus haute énergie en 2015, les expériences du LHC raffineront leurs mesures pour les mésons Bs et tenteront d’obtenir une première mesure pour les mésons Bd (et non pas seulement une limite). Eventuellement, elles pourront mesurer le rapport entre les mésons Bs et Bd. Ceci permettra à certaines incertitudes expérimentales et théoriques de s’annuler, ce qui donnera une mesure encore plus précise. Puisqu’aucun écart n’a été décelé à la neuvième décimale, nous devrons aller voir ce qui se passe à la dixième décimale.

Tous les détails se trouvent sur les sites de CMS et LHCb (en anglais seulement).

Pauline Gagnon

Pour être averti-e lors de la parution de nouveaux blogs, suivez-moi sur Twitter: @GagnonPauline ou par e-mail en ajoutant votre nom à cette liste de distribution

### Oh what a beautiful day

Tuesday, July 23rd, 2013

In case you hadn’t heard, the past few days have been big days for B physics, i.e. particle physics involving a b quark. On the 18th and 19th, there were three results released in particular, two by LHCb and one by CMS. Specifically, on the 18th LHCb released their analysis of $$B_{(s)}\to\mu\mu$$ using the full 3 fb$$^{-1}$$ dataset, corresponding to 1 fb$$^{-1}$$ of 2011 data at 7 TeVand 2 fb$$^{-1}$$ of 2012 data at 8 TeV. Additionally, CMS also released their result using 5 fb$$^{-1}$$ of 7 TeV and 30 fb$$^{-1}$$ of 8 TeV data.

The decay $$B_{(s)}\to\mu\mu$$ cannot decay via tree-level processes, and must proceed by higher level processes ( shown below)

These analyses have huge implications for SUSY. The decay $$B_{(s)}\to\mu\mu$$ cannot proceed via tree-level processes, as they would involve flavor changing neutral currents which are not seen in the Standard Model (picture to the right). Therefore, the process must proceed at a higher order than tree level. In the language of Feynman Diagrams, the decay must proceed by either loop or penguin diagrams, show in the diagrams below. However, the corresponding decay rates are then extremely small, about $$3\times10^{-9}$$. Any deviation from this extremely small rate, however, could therefore be New Physics, and many SUSY models are strongly constrained by these branching fractions.

The results reported are:

 Experiment $$\mathcal{B}(B_{s}\to\mu\mu)$$ Significance $$\mathcal{B}(B\to\mu\mu)$$ LHCb $$2.9^{+1.1}_{-1.0} \times 10^{-9}$$ 4.0$$\sigma$$ $$<7.4\times 10^{-10}(95\% CL)$$ CMS $$3.0^{+1.0}_{-0.9}\times 10^{-9}$$ 4.3 $$\sigma$$ $$< 1.1\times 10^{-9} (95\% CL)$$

Higher order diagrams

Both experiments saw an excess of events events for the $$B_{s}\to\mu\mu)$$ channel, corresponding to $$4.o\sigma$$ for LHCb (updated from $$3.5 \sigma$$ of last year), and $$4.3\sigma$$ for CMS. The combined results will, no doubt, be out very soon. Regardless, as tends to happen with standard model results, SUSY parameter space has continued to be squeezed. Just to get a feel of what’s happening, I’ve made a cartoon of the new results overlaid onto an older picture from D. Straub to see what the effect of the new result would be. SUSY parameter space is not necessarily looking so huge. The dashed line in the figure represents the old result. Anything shaded in was therefore excluded. By adding the largest error on the branching fraction of $$B_s\to\mu\mu$$, I get the purple boundary, which moves in quite a bit. Additionally, I overlay the new boundary for $$B\to\mu\mu$$ from CMS in orange and from LHCb in green. An interesting observation is that if you take the lower error for LHCb, the result almost hugs the SM result. I won’t go into speculation, but it is interesting.

Cartoon of Updated Limits on SUSY from $$B\to\mu\mu$$ and $$B_s\to\mu\mu$$. Orange Represents the CMS results and green represents LHCb results for $$B_s\to\mu\mu$$ . Purple is the shared observed upper limit on $$B\to\mu\mu$$. Dashed line is the old limit. Everything outside the box on the bottom left is excluded. Updated from D. Straub (http://arxiv.org/pdf/1205.6094v1.pdf)

Additionally, for a bit more perspective, see Ken Bloom’s Quantum Diaries post.

As for the third result, stay tuned and I’ll write about that this weekend!

### Vieille énigme résolue

Saturday, July 20th, 2013

Ce matin, lors de la conférence de la Société européenne de physique à Stockholm, l’expérience LHCb du Grand collisionneur de hadrons (LHC)

du CERNa présenté un élément de plus pour clore le chapitre sur une étrange situation qui gardait les théoricien-ne-s perplexes depuis une vingtaine d’années.

LHCb a présenté la mesure la plus précise à ce jour de la durée de vie du baryon b. Les baryons sont des particules formées de trois quarks. Par exemple, les protons et les neutrons sont constitués d’une combinaison de quarks u et d. Ce qui rend les baryons b spéciaux, c’est qu’ils contiennent un quark b, un type de quark beaucoup plus lourd. Toutes les particules composites contenant des quarks b comme les mésons B (faits d’un quark b et soit d’un quark u ou d) et les baryons b sont instables, ce qui signifie qu’ils ont une courte durée de vie. Environ une picoseconde après avoir été créés, ils se décomposent en particules plus légères.

En théorie, les mésons B et les baryons b devraient avoir à peu près la même durée de vie. Mais dans les années 1990, quand le CERN fonctionnait avec le précurseur du LHC, l’accélérateur appelé le LEP (Large Electron Positron Collider), toutes les expériences mesuraient une durée de vie systématiquement plus courte pour les baryons b que pour les mésons B comme on peut le voir sur le graphique ci-dessous. Bien que les marges d’erreurs étaient grandes, la tendance générale vers des valeurs plus basses était d’autant plus surprenante puisque les quatre expériences (ALEPH, DELPHI, OPAL et L3) travaillaient indépendamment.

Les différentes valeurs mesurées pour la durée de vie des baryons b au fil du temps avec les plus anciennes en bas et les toutes dernières venant du LHC tout en haut. La durée de vie mesurée est maintenant très proche de 1.5 picoseconde soit celle mesurée pour les mésons B.

Cette situation avait incité plusieurs théoricien-ne-s à réexaminer leurs calculs et à chercher un effet négligé qui aurait pu expliquer la différence. Malgré tous leurs efforts, il était pratiquement impossible de réconcilier la durée de vie mesurée pour les baryons b (quelque part entre 1,1 à 1,3 picoseconde) avec celle des mésons B qui était à environ 1,5 picosecondes.

Une décennie plus tard, D0 et CDF, deux expériences d’un autre accélérateur, le Tevatron près de Chicago, ont commencé à combler l’écart. Mais il a fallu attendre une autre décennie pour que les expériences du LHC démontrent qu’en fait, il n’y a pas grand différence entre la durée de vie des baryons b et celle des mésons B.

Plus tôt cette année, ATLAS et CMS avaient toutes les deux mesuré des valeurs plus en accord avec la durée de vie des mésons B. Avec ce dernier résultat de haute précision de l’expérience LHCb, il y a maintenant suffisamment d’évidence pour clore l’affaire après une vingtaine d’années de questionnement. LHCb a mesuré la durée de vie du baryon b à 1,482 ± 0,018 ± 0,012 picoseconde. Le rapport à la durée de vie des mésons B est de 0,976 ± 0,012 ± 0,006, une valeur très proche de un, tel que prévu théoriquement.

Une explication possible serait que toutes les expériences du LEP étaient affectées par une erreur systématique commune mais toujours inconnue. Ou simplement une fluctuation statistique (i.e. malchance !). La cause exacte ne sera peut être jamais identifiée, mais au moins, le problème est résolu. C’est une grande réussite pour les théoricien-ne-s qui savent désormais que leurs calculs étaient justes, et ce depuis le début.

Pauline Gagnon

Pour être averti-e lors de la parution de nouveaux blogs, suivez-moi sur Twitter: @GagnonPauline ou par e-mail en ajoutant votre nom à cette liste de distribution

### Long-standing discrepancy put to rest

Saturday, July 20th, 2013

This morning at the European Physics Society conference in Stockholm, the LHCb experiment operating at the Large Hadron Collider (LHC) CERN brought one more argument to put to rest a long-standing discrepancy that had kept theorists puzzled for nearly two decades.

LHCb presented the most precise measurement to date of the b baryon lifetime. A baryon is a family of composite particles made of three quarks.  For example, protons and neutrons are made of a combination of u and d quarks.  What makes b baryons so special is that they contain a b quark, a much heavier type of quark. Composite particles containing b quarks like B mesons (made of a b and either a u or d quarks) and b baryons are unstable, meaning they have a short lifetime. About one picosecond after being created, they break down into smaller particles.

In theory, both B mesons and b baryons should have approximately the same lifetime. But in the 1990’s, when CERN operated with its previous accelerator called LEP (Large Electron Positron collider), all experiments measured a systematically shorter lifetime for b baryons than B mesons as can be seen on the plot below. Although the LEP experimental errors were quite large, the general trend of lower values was very puzzling since all four experiments (ALEPH, DELPHI, OPAL and L3) were working independently.

The various b baryon lifetime measurements over time from the oldest results at the bottom to the three latest results from the LHC experiments at the top. The measured value has now shifted toward a value of 1.5 picoseconds, as measured for the B mesons.

This prompted theorists to re-examine their calculations and to look for overlooked effects that could explain the difference. Despite all efforts, it was nearly impossible to reconcile the measured b baryon lifetime (somewhere between 1.1 to 1.3 picosecond) with the B meson lifetime at around 1.5 ps.

Nearly a decade later, D0 and CDF, the two experiments from another accelerator, the Tevatron near Chicago, started closing the gap. It took another decade for the LHC experiments to show that in fact, there is no large difference between b baryon and B meson lifetimes.

Already, earlier this year, ATLAS and CMS both reported values in line with the B meson lifetime. With this latest and most precise result from the LHCb experiment, there is now enough evidence to close the case on this two-decade-old discrepancy. LHCb measured the b baryon lifetime to be 1.482 ± 0.018 ± 0.012 ps. Hence, both lifetimes are now measured close to 1.5 picosecond and LHCb calculated their ratio to be 0.976 ± 0.012 ± 0.006, very close to unity as theoretically expected.

One possible explanation is that all LEP experiments were affected by a common but unknown systematic shift or simply, some statistical fluctuation (i.e. bad luck). The exact cause might never be found but at least, the problem is solved. This is a great achievement for theorists who can now rest assured that their calculations were right after all.

Pauline Gagnon

### Back From Hibernation, and a Puzzling Asymmetry

Monday, March 4th, 2013

I know in my life at least, there are periods when all I want to do is talk to the public about physics, and then periods where all I would like to do is focus on my work and not talk to anyone. Unfortunately, the last 4 or so months falls into the latter category. Thank goodness, however, I am now able to take some time and write about some interesting physics which had been presented both this year and last. And while polar bears don’t really hibernate, I share the sentiments of this one.

Okay, I swear I'm up this time! Photo by Andy Rouse, 2011.

A little while ago, I posted on Dalitz Plots, with the intention of listing a result. Well, now is the time.

At the 7th International Workshop on the CKM Unitarity Triangle, LHCb presented preliminary results

Asymmetry of $$B^{\pm}\to\pi^{\pm}\pi^+\pi^-$$ as a function of position in the Dalitz Plot. Asymmetry is mapped to the z-axis. From LHCb-CONF-2012-028

for CP asymmetry in the channels $$B\to hhh$$, where $$h$$ is either a $$K$$ or $$\pi$$. Specifically, the presentation was to report on searches for direct CP violation in the decays $$B^{\pm}\to \pi^{\pm} \pi^{+} \pi^{-}$$ and $$B^{\pm}\to\pi^{\pm}K^{+}K^{-}$$.  If CP was conserved in this decay, we would expect decays from $$B^+$$ and $$B^-$$ to occur in equal amounts. If, however, CP is violated, then we expect a difference in the number of times the final state comes from a $$B^+$$ versus a $$B^-$$. Searches of this type are effectively “direct” probes of the matter-antimatter asymmetry in the universe.

Asymmetry of $$B^\pm\to\pi^\pm K K$$ as a function position in the Dalitz plot. Asymmetry is mapped onto the z-axis.From LHCb-CONF-2012-028

By performing a sophisticated counting of signal events, CP violation is found with a statistical significance of $$4.2\sigma$$ for $$B^\pm\to\pi^\pm\pi^+\pi^-$$ and $$3.0\sigma$$ for $$B^\pm\to\pi^\pm K^+K^-$$. This is indeed evidence for CP violation, which requires a statistical significance >3$$\sigma$$.The puzzling part, however, comes when the Dalitz plot of the 3-body state is considered. It is possible to map the CP asymmetry as a function of position in the Dalitz plot, which is shown on the right. It’s important to note that these asymmetries are for both signal and background. Also, the binning looks funny in this plot because all bins are of approximately equal populations. In particular, notice red bins on the top left of the $$\pi\pi\pi$$ Dalitz plot and the dark blue and purple section on the left of the $$\pi K K$$ Dalitz plot. By zooming in on these regions, specifically $$m^2(\pi\pi_{high})>$$15 GeV/c$$^2$$ and $$m^2(K K)<$$3 GeV/c$$^2$$, and separating by $$B^+$$ and $$B^-$$, a clear and large asymmetry is shown (see plots below).

Now, I’d like to put these asymmetries in a little bit of perspective. Integrated over the Dalitz Plot, the resulting asymmetries are

$$A_{CP}(B^\pm\to\pi^\pm\pi^+\pi^-) = +0.120\pm 0.020(stat)\pm 0.019(syst)\pm 0.007(J/\psi K^\pm)$$

and

$$A_{CP}(B^\pm\to\pi^\pm K^+K^-) = -0.153\pm 0.046(stat)\pm 0.019(syst)\pm 0.007(J/\psi K^\pm)$$.

Whereas, in the regions which stick out, we find:

$$A_{CP}(B^\pm\to\pi^\pm\pi^+\pi^-\text{region}) = +0.622\pm 0.075(stat)\pm 0.032(syst)\pm 0.007(J/\psi K^\pm)$$

and

$$A_{CP}(B^\pm\to\pi^\pm K^+K^-\text{region}) = -0.671\pm 0.067(stat)\pm 0.028(syst)\pm 0.007(J/\psi K^\pm)$$.

These latter regions correspond to a statistical significance of >7$$\sigma$$ and >9$$\sigma$$, respectively. The interpretation of these results is a bit difficult: the asymmetries are four to five times that of the integrated asymmetries, and are not necessarily associated with a single resonance. We would expect in the $$\rho^0$$ and $$f_0$$ resonances to appear in the lowest region of $$\pi\pi\pi$$ Dalitz plot, in the asymmetry. In the $$K K\pi$$ Dalitz plot, there are really no scalar particles which we expect to give us an asymmetry of the kind we see. One possible answer to both these problems is that the quantum mechanical amplitudes are only partially interfering and giving the structure that we see. The only way to check this would be to do a more detailed analysis involving a fit to all of the possible resonances in these Dalitz plots. All I can say is that this result is certainly puzzling, and the explanation is not necessarily clear.

Zoom onto $$m^2(\pi\pi)$$ lower axis (left) and $$m^2(K K)$$ axis (right) . Up triangles are $$B^+$$, down are $$B^-$$

### Mixing it up

Wednesday, November 14th, 2012

One of the other results presented at the Hadron Collider Physics Symposium this week was the result of a search for $$D^{0}–\bar{D}^{0}$$ mixing at LHCb.

Cartoon: If a $$D^0$$ is produced, at some time t later, it is possible that the system has "oscillated" into a $$\bar{D}^0$$. This is because the mass eigenstates are not the same as the flavor eigenstates.

Neutral meson mixing is predicted for any neutral meson system, and has been verified for the $$K^0–\bar{ K}^0$$, $$B^0–\bar{B}^0$$ and $$B_s^0–\bar{B_s}^0$$ systems. However, for the $$D^0–\bar{D}^0$$ system, no one measurement has provided a result with greater than $$5\sigma$$ significance that mixing actually occurs, until now.

The actual measurement is of $$R(t)=R$$, which is effectively the Taylor expansion of the time dependent ratio of $$D^0 \rightarrow K^+ \pi^-$$ (“Wrong Sign” decay) to $$D^0\rightarrow K^- \pi^+$$ (“Right Sign” decay). Charge conjugates of these decays are also included. There is a “Wrong Sign” and a “Right Sign” because the Right Sign decays are much more probable, according to the standard model.

The mixing of the $$D^0–\bar{D}^0$$ system is described by the parameters $$x = \Delta m /\Gamma$$ and $$y = \Delta \Gamma / 2\Gamma$$, where $$\Delta m$$ is the mass difference between the $$D^0$$ and $$\bar{D}^0$$, $$\Delta \Gamma$$ is the difference of widths of the mass peaks, and $$\Gamma$$ is the average width. What appears in the description of $$R$$, however, is $$x’$$ and $$y’$$, which give the relations between the $$x$$ and $$y$$ with added information about the strong phase difference between the Right Sign and Wrong Sign decays. The important part about $$x’$$ and $$y’$$ are that they appear in the time dependent terms of the Taylor expansion of $$R$$. If there were no mixing at all, then we would expect the ratio to remain constant, and the higher order time dependence to vanish. If mixing does occur, however, then a clear, non-flat trend should be seen, and hence a measurement of $$x’$$ and $$y’$$. That is why the time dependent analysis is so important.

Fit of ratio of WS and RS decays as a function of decay time of the D meson. Flat line would be no mixing, sloped line indicates mixing. From http://arxiv.org/pdf/1211.1230.pdf

Result of the mixing parameter fit of the neutral D meson system. 1,3 and 5 standard deviation contours are shown, and the + represents no mixing. From http://arxiv.org/pdf/1211.1230.pdf

The result is a 9.1 $$\sigma$$ evidence for mixing, which is also in agreement with previous results from BaBar, Belle and CDF. On top of confirming that the neutral D meson system does mix, this result is of particular importance because, coupled with the result of CP violation in the charm system, it begs the question whether or not there is much more interesting physics beyond the standard model involving charm just waiting to be seen. Stay tuned!

### Huge impact from a tiny decay

Wednesday, November 14th, 2012

The Hadron Collider Physics Symposium opened on November 12 in Kyoto on a grand note. For the first time, the LHCb collaboration operating at the Large Hadron Collider (LHC) at CERN showed evidence for an extremely rare type of events, namely the decay of a Bs meson into a pair of muons (a particle very similar to the electron but 200 times heavier). A meson is a composite class of particles formed from a quark and an antiquark. The Bs meson is made of a bottom quark b and a strange quark s. This particle is very unstable and decays in about a picosecond (a millionth of a millionth of a second) into lighter particles.

Decays into two muons are predicted by the theory, the Standard Model of particle physics, that states it should occur only about 3 times in a billionth of decays. In scientific notation, we write (3.54±0.30)x10-9 where the value of 0.30 represents the error margin on this theoretical calculation. Now, the LHCb collaboration proudly announced that they observed it at a rate of (3.2+1.5-1.2)x10-9 , a value very close to the theoretically predicted value, at least within the experimental error.

Here is the plot shown by the LHCb collaboration for the number of events found in data as a function of the combined mass of the two muons. The solid blue line represents the sum of all types of events from known phenomena containing two muons. The dashed curve in red shows the number of events coming from a Bs meson. With the current error margin on the measurement (shown by the

vertical and horizontal bars on the data points), the data seem to agree with all expected contributions from known sources, leaving little room for new phenomena.

This represents a great achievement, not only because this is the rarest process ever observed, but because it puts stringent limits on new theories. Here is why.

Theorists are convinced that a theory far more encompassing than the Standard Model exists even though we have not detected its presence yet. As if the Standard Model is to particle physics what the four basic operations (addition, multiplication, division and subtraction) are to mathematics. They are sufficient to tackle daily problems but one needs algebra, geometry and calculus to solve more complex problems. And in particle physics, we do have problems we cannot solve with the Standard Model, such as explaining the nature of dark matter and dark energy.

A good place to catch the first signs of “new physics” is where the Standard Model predicts very faint signals such as in Bs mesons decaying into two muons. These decays occur extremely rarely because the Standard Model only has limited ways to produce them. But if an additional mechanism comes into play due to some new theory, we would observe these decays at a rate different from what is expected within the Standard Model.

This is a bit like using the surface of a lake to detect the presence of an invisible creature, hoping its breath would create a ripple on the water surface. It would only work if the lake were extremely calm or disturbed only by an occasional tiny fish.  Here the Standard Model acts like all known little animals creating ripples on the water surface.  The hope was to detect other ripples in the absence of known causes (fish, frogs or mosquitoes). The LHCb result reveals no extra ripples yet. So either the new creature does not breathe as expected or we need to find another method to see it. It will be easier to know once the error margin is reduced with more data.

This new result pushes the reach for new physics even further. Nevertheless, it will help theorists eliminate faulty models like on the plot below and eventually zoom on the right solution. Meanwhile, experimentalists will have to devise yet more stringent tests to be able to discover the way to this new physics.

This plot shows how this measurement (horizontal axis) shown earlier this year reduced the space where new physics could be seen. With this new result, the constraints will even be stronger.

(For more details, see LHCb website)

Pauline Gagnon

### Impact majeur pour une toute petite mesure

Wednesday, November 14th, 2012

Le « Symposium des collisionneurs d’hadrons » s’est ouvert lundi  à Kyoto sur une bonne note.  Pour la première fois, la collaboration LHCb qui opère au Grand Collisionneur de Hadrons (LHC) au CERN a dévoilé la toute première évidence de désintégrations rarissimes, celles de mésons Bs en deux muons (une particule semblable à l’électron mais 200 fois plus lourde). Les mésons forment une classe de particules faites d’un quark et d’un antiquark, ici un quark b et un antiquark s.

Ces mésons sont très instables et se désintègrent en particules plus légères en une picoseconde, soit un millionième de millionième de seconde.

Ces désintégrations en deux muons sont prédites par la théorie, le modèle standard de la physique des particules. Cela devrait se produire environ 3 fois par milliards de désintégrations. En notation scientifique, on écrit (3.54±0.30)x10-9. La valeur de 0.30 représente la marge d’erreur théorique. La collaboration LHCb a donc annoncé avec beaucoup de fierté avoir mesuré (3.2+1.5-1.2)x10-9 ,  soit une valeur très proche de la valeur théorique en tenant compte de la marge d’erreur expérimentale.

Voici la distribution des valeurs obtenues par LHCb pour la masse combinée des deux muons. La courbe continue en bleu représente la somme de toutes les contributions de sources connues contenant deux muons. La courbe rouge en pointillés montre le nombre d’évènements venant de la désintégration de mésons Bs. Les points en noir représentent les données avec leur marge d’erreur (barres verticales et horizontales). Les données semblent correspondre à la somme de toutes les sources connues, laissant peu de place pour de nouveaux phénomènes.

Ce résultat constitue un véritable exploit, non seulement parce que c’est le plus petit taux de désintégration jamais mesuré, mais surtout parce qu’il impose de fortes contraintes sur tous les nouveaux modèles théoriques. Voici pourquoi.

Les théoriciens et théoriciennes sont convaincus qu’il existe une théorie plus complète que le modèle standard actuel, même si on n’a pas encore réussi à en détecter le moindre effet. Un peu comme si le modèle standard était à la physique des particules ce que l’arithmétique (addition, soustraction etc.) est aux mathématiques. Cela suffit amplement pour les opérations quotidiennes mais pour les tâches plus complexes, il nous faut l’algèbre ou le calcul intégral et différentiel.  En physique des particules, nous avons des problèmes que l’on ne peut résoudre avec le modèle standard, comme par exemple il n’explique pas la nature de la matière noire. On cherche donc les premiers signes de la « nouvelle physique ».

Un bon endroit où regarder pour détecter cette nouvelle physique est justement là où la théorie actuelle prédit des phénomènes très rares comme ces désintégrations de mésons Bs. Elles sont justement rarissimes car la théorie n’a que très peu de façons de les produire. Si cette nouvelle physique existe, on soupçonne qu’elle contribuera par de nouveaux mécanismes. On verrait peut-être alors ce genre de désintégrations se produire un peu plus souvent.

C’est un peu comme si on voulait utiliser la surface d’un lac pour déceler la présence d’une créature invisible en espérant voir les rides que son souffle produirait sur l’eau. Bien sûr, cela ne pourrait fonctionner que pour un lac très calme, à peine perturbé par un tout petit poisson ou un insecte dans l’espoir de voir apparaitre des vaguelettes venant d’une autre source. Le résultat actuel de LHCb montre qu’en fait aucune ride n’est visible sur le lac qu’on ne puisse imputer à une cause déjà connue. Si la situation demeure inchangée lorsque la marge d’erreur aura diminuée (en analysant dans les mois à venir les données en cours d’acquisition), on devra conclure que soit la nouvelle créature ne respire pas comme on le pensait, soit qu’il faudra élaborer une méthode plus efficace.

Ce nouveau résultat semble indiquer que la nouvelle physique sera plus difficile à révéler qu’on ne l’espérait. En attendant, cela permettra aux théoriciennes et théoriciens d’éliminer les nouveaux modèles inadéquats, ce qui finira éventuellement par les orienter dans la bonne direction. Entre temps, les expérimentateurs et expérimentatrices devront élaborer des techniques plus raffinées pour enfin mettre le doigt sur cette nouvelle physique.

Ce graphe démontre comment cette mesure (représentée par l’axe horizontal) effectuée plus tôt cette année avait déjà grandement contraint les valeurs permises pour différents modèles. Le nouveau résultat les renforcera encore davantage.

(Pour plus de détails, voir la page publique de LHCb (en anglais seulement))

Pauline Gagnon

Pour être averti-e lors de la parution de nouveaux blogs, suivez-moi sur Twitter: @GagnonPauline ou par e-mail en ajoutant votre nom à cette liste de distribution

### How is new physics discovered?

Friday, September 28th, 2012

Finding an experimental anomaly is a great way to open the door to a new theory. It is such a good trick that many of us physicists are bending over backward trying to uncover the smallest deviation from what the current theory, the Standard Model of particle physics, predicts.

This is the approach the LHCb collaboration at CERN is pursuing when looking at very rare decays. A minute deviation can be more easily spotted for rare processes. One good place to look is in the rate of K meson decays, a particle made of one strange quark s and one anti-down quark d.

There are in fact two sorts of K mesons: short-lived ones, K0S (called K-short) and long-lived ones, K0L (“K-long”). In the early 1970’s, scientists discovered that the K0L were decaying into a pair of muons 10 000 times less often than the theory predicted. At the time, the theory knew of only three quarks: u, d and s. This hinted three theorists, Sheldon Glashow, John Iliopoulos and Luciano Maiani to propose a mechanism that required the existence of a new, unknown quark, the charm quark c, to explain how this rate could be so suppressed. This explanation is now called the GIM mechanism, an acronym based on their last names.

This major breakthrough on a theoretical level was soon confirmed by the discovery of the charm quark in 1974.

Recently, the LHCb collaboration has turned its attention to measuring the decay rate of the short-lived kaons K0S, the only K mesons decaying fast enough to be seen with precision in their detector.

To make this measurement, they had to select billions of muon pairs and see if any was coming from the decay of a K0S. One can reconstruct the mass of a decaying particle by adding together the mass and momentun of all its fragments. If these muons were coming from the decays of K0S, the reconstructed mass would be the K0S mass. An accumulation of events would appear near this value in the distribution of all the recombined masses.

But as can be seen in the figure below, no such accumulation appears in the region around 500 MeV, the K0S mass value. This allowed the LHCb collaboration to estimate how often a K0S can decay into two muons, a quantity called the branching ratio. They placed a limit at less than 9 times in a billion, or in scientific notation, BR(K0S →μμ ) < 9 x 10-9 with 90% confidence level using all of the 2011 data. Since no peak appears anywhere on this curve, it means the muon pairs were produced in a variety of decays where other particles were also produced.

They have a long way to go since it is still about 2000 times larger than what the Standard Model predicts, namely a branching ratio of 5×10-12. Nevertheless, LHCb is getting closer to the theoretical prediction and eventually, given enough data, they might be able to test it.

Not easy to get to the next layer of the theory when the current one makes predictions requiring thousands of billions of events to be tested.

Pauline Gagnon