AlSvartr

LHC, l'aventure continue...

Messages recommandés


L'acquisition de données a commencé pour l'exploitation 2011 après l'annonce de faisceaux stables à une énergie de 3,5 TeV peu après 18 heures le 13 mars.

Les physiciens des expériences LHC vont maintenant commencer l'acquisition et l'analyse des données issues des collisions entre protons, ce qui permettra de vérifier petit à petit les modèles actuels et ouvrira la voie à une nouvelle physique prometteuse.

Des données issues de plus de 3 000 milliards de collisions ont été enregistrées en 2010 par les expériences CMS et ATLAS.
http://public.web.cern.ch/public/Welcome-fr.html

Les premières collisions de 2011 avaient été enregistrées le 2 mars.

L’une des principales activités menées par les équipes chargées de l’exploitation a été le réglage minutieux du système de collimation, ainsi que des dispositifs de protection pour l’injection et l’arrêt des faisceaux. Le système de collimation assure une opération essentielle, le nettoyage des faisceaux, pour éviter que des particules égarées heurtent certains éléments de la machine, et en particulier les aimants supraconducteurs.

Les équipes se sont également occupées de préparer les trains de paquets qui seront injectés depuis le SPS dans le LHC. L’intervalle entre paquets prévu cette année sera de 75 ns, et, au cours des derniers jours, les opérateurs ont injecté des lots de 8 paquets, espacés de l’intervalle nominal. C’est une première étape, le but étant d’atteindre 900 paquets par faisceau au cours de l’année.

http://cdsweb.cern.ch/journal/CERNBulletin/2011/11/News%20Articles/1335119?ln=fr

Partager ce message


Lien à poster
Partager sur d’autres sites

Il est pas radioactif, le bosondrome ?

On devrait pas l'arrêter immédiatement, Principe de Précaution oblige ?

S

Partager ce message


Lien à poster
Partager sur d’autres sites

Va savoir, avec la psychose ambiante...
Et avec les conneries d'Eva Joly et Cie, on va bientôt devoir solliciter les physiciens du CERN pour pédaler afin d'alimenter le bazar en électricité..

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut,

Fait un bout de tps que je n'était plus passé ici...Hé oui ça recommence, on était peinard à jouer avec les données 2010 que PAF voilà, on recommence à accumuler...Enfin bon le temps que les détecteurs soient mis en route, que les données soient contrôlées, filtrées, reconstruites on en a encore pour quelques semaines. En tout cas de nouveaux résultats vont vite tomber, on s'attend à multiplier par 10 la stat de 2010 d'ici à l'été, ce qui va nous permettre de rentrer encore plus dans le secteur électrofaible (processus WW, WZ, ZZ,...) et, qui sait...commencer à toucher des configurations particulières de secteurs de Higgs :-D En tout cas, ça va chauffer!

@SuperRadioactif: waip, le LHC c'est méchamment radioactif, si on va mettre sa tête dans un faisceau ou si on reste à lire son journal à côté d'un des détecteurs pendant les collisions...Comparé à ça, Tchernobyl+Fukushima c'est de la gnognote :-D...mais bon, faut vrrraiment le vouloir d'aller mettre sa tête dans un faisceau aussi hein :-)

@Vaufrège: bravo pour ton reporting régulier!!

a+


Simon

[Ce message a été modifié par AlSvartr (Édité le 16-03-2011).]

[Ce message a été modifié par AlSvartr (Édité le 17-03-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Redécouverte du "Single top" dans CMS.
=====================================

Pour information, nous avons les premiers signes tangible du processus dit "single-top" dans CMS.

cfr http://www.symmetrymagazine.org/breaking/2011/03/15/speedy-single-top-sighting-at-the-lhc/

Le "single top" est un processus qui, comme le nom l'indique, produit un seul top quark. Il est important dans le sens ou il permet a mesure précise du couplage du quark top et quark b au boson W, ce qui est connu comme dépendant d'un paramètre qu'on appelle Vtb. Dans le Modèle Standard ce paramètre est sensé être proche de 1, et donc en constitue un test important.

Au Tevatron ils n'ont pu le découvrir qu'en 2009 après plus de 10 ans de run, alors que CMS en voit les premières traces au bout d'un an de donnée, ce qui est un petit exploit ;-) Pour le moment il s'agit bien de traces, c'est à dire qu'on a pas pu isoler catégoriquement ce canal des autres processus, mais il est assez clair qu'il intervient dans la comparaison simulations/données (i.e.: sans lui, ça ne "colle pas").


a+

Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Super.

Mais cette valeur de "1", ou 0.9, ou 1.1 vous l'aurez quand ???????

S

PS : C'est pas radioactif, au moins, le quark, si ?

Partager ce message


Lien à poster
Partager sur d’autres sites
@S:

Tout dépend de l'indice de confiance statistique que l'on veut. Une valeur n'est considérée que comme "établie" qu'avec un niveau de confiance de 99.999% soit 5 écarts type. Donc monter jusqu'à la statistique nécessaire pourrait prendre du temps (quelques années, difficile à dire faudrait que je regarde les prévisions)

Sinon, un quark n'est pas radioactif en tant que tel. En fait la radio-activité n'a plus bcp de sens en hautes énergies car c'est un concept purement nucléaire: un noyau instable descend de niveau en émettant soit du alpha (noyau d'hélium 4) soit du beta (electron ou positron) ou gamma (photon). Or ici on ne parle plus de noyaux donc plus de radio-activité directement causée par les collisions ou les faisceaux.

Cela dit il y a quand même un peu de radioactivité dans l'histoire, mais c'est vraiment faible. Il faut savoir que lors des collisions le taux de radiation est très élevé et bien plus diversifié qu'en nucléaire: notamment bcp de hadrons (pions, kaons, neutrons, protons,...) qui sont émis et qui arrivent à traverser le détecteur, ainsi que de rayonnement gamma (aussi par les faiseaux), et c'est ça qui nous empêche d'être à côté du détecteur quand il fonctionne.

Et ce sont ces radiations qui "activent" le détecteur, surtout dans les régions centrales, car ces radiations peuvent mettre dans des états instables certains noyaux, qui eux vont être radioactif, mais souvent avec des demi-vies courtes (quelques jours/semaines)...


voili voilou.

a+

Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour ce retour et pour l'info Simon

Là où le machintron a mis 13 ans, le délai a été notoirement raccourci au CMS. Cela met en évidence l'efficacité du LHC et de ses détecteurs, et ça donne pas mal d'espoirs pour la suite..

Pour la radioactivité, Supernikon doit être pleinement rassuré. A vrai dire je suppute qu'il n'a jamais été véritablement inquiet..

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut Vaufrège,


Oui mais à la décharge du Tevatron, il y a deux choses à prendre en compte:

1)le LHC a largement ses X années de retard sur le plan initial, ce qui a laissé plus de temps qu'il n'en aurait fallu pour peaufiner les détails de simulation/data recording/alignement du détecteur et évidemment les algos d'analyses physique. Il est clair que tout n'a pas été simple, on a quand même eu quelques surprises, par exemple pas mal de bruit de fond provenant des interaction faisceau-gaz (résiduel, même avec des vides poussés), ou des morceaux de sous-détecteurs qui ne marchent pas toujours comme ils devraient...mais en gros on peut dire que la majeure partie du commissionning du détecteur CMS, c'est à dire savoir si oui on non on comprends bien ce qui en sort, a été ultra rapide, à peu près 6 mois...

2) L'expérience CMS (comme les autres au LHC) bénéficient du savoir faire de bcp de gens venant d'autres expériences (Belle, Babar, CDF, D0,...), ce qui permet souvent d'aller mettre le doigt rapidement sur les problèmes!

Le tout mis ensemble fait qu'en effet, les résultats tombent très très vite...tellement vite que c'est parfois difficile à suivre, même de l'intérieur! :-)


Pour la radioactivité, je me doutais bien que Superquark n'était pas inquiet ;-)

a+


Simon

[Ce message a été modifié par AlSvartr (Édité le 19-03-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites

L'un des enjeux important pour 2011 est d'augmenter la luminosité d’au moins un facteur trois par rapport à la valeur atteinte en 2010...
En 2010 le record établi est de 2,0x10^32/cm2/s, soit quelques millions de collisions de protons par seconde.

Ce record vient d'être battu dès le début de l'exploitation 2011, le 22 mars, ce qui est prometteur. Il s'établit maintenant à 2,5x10^32/cm2/s.

Pour mieux appréhender ce qu'est la luminosité :
http://www.quantumdiaries.org/2011/03/03/pourquoi-ne-pas-parler-tout-simplement-du-taux-de-collisions/

Partager ce message


Lien à poster
Partager sur d’autres sites

Le point sur la recherche du boson de Higgs au LHC (bulletin du CERN mars 2011 :

Dans la course à l’énergie de collision la plus élevée, le Tevatron a été un pionnier. Les expériences Tevatron ont présenté de nouveaux résultats, confirmant que le boson de Higgs n’existe pas dans la gamme de masses comprises entre 159 GeV et 173 GeV (ce résultat est donné avec un intervalle de confiance de 95 %, témoignant de la fiabilité statistique des chiffres).

"CMS et ATLAS ne sont pas encore en mesure d'atteindre la sensibilité des expériences Tevatron en ce qui concerne la recherche du boson de Higgs dans cette gamme de masses", explique Greg Landsberg, membre de la collaboration CMS. "Toutefois, en l’espace d’une année, si tout se passe bien et si le LHC fournit le nombre de collisions attendu, CMS comme ATLAS seront capables d’explorer entièrement la gamme de masses comprises entre 130 GeV et 460 GeV".

S’ils ne détectent aucun indice de l’existence du fameux boson dans cette gamme de masses, les physiciens pourront en conclure qu’il n’existe pas de nouvelle particule ayant cette masse et présentant les propriétés du boson de Higgs. Si, en revanche, ils détectent un nouveau signal, les lois strictes de la statistique les obligeront à disposer de nouvelles données avant de pouvoir confirmer toute nouvelle découverte, ce qui n'interviendra qu'en 2012.

Source :
http://cdsweb.cern.ch/journal/CERNBulletin/2011/13/News%20Articles/1339911?ln=fr

Quelques commentaires sous couvert de précisions/rectifications avisées de Simon :

A 7 TeV, le LHC est bien sûr en mesure de faire des collisions à des énergies qui sont non seulement supérieures à celle du Tevatron mais aussi à celles que l’on peut associer à l’ensemble des masses possibles du boson de Higgs… Mais, si le Higgs existe, son taux de production lors de collisions entre protons demeure extrêmement faible. Il faut donc réaliser un très grand nombre de collisions par seconde pour avoir la chance d’en observer un de temps en temps. D'où l'importance d'atteindre très vite une "luminosité" optimale... et du facteur temps.

Dans les meilleures con­ditions, chaque expérience produit un boson de Higgs à intervalle de quelques heures. Les physiciens estiment qu’il faudra environ un an de prise de données à pleine luminosité avant d’obtenir les pre­miers résultats probants.
Sachant que l'on observera pas le Higgs directement, mais le produit du produit de sa désintégration...

Patience dans l'azur..

[Ce message a été modifié par vaufrègesI3 (Édité le 27-03-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci Vaufrège pour tes commentaires.
En effet, le LHC est capable de produire le boson ou les bosons de Higgs à n'importe quelle masse acceptable par la théorie, c'est à dire sous le TeV/c^2, mais c'est stricto senso quelque chose dont le Tevatron était capable avec ses 1.96 TeV d'énergie de collision. Le soucis majeur (il y en a d'autres) du Tevatron est sa faible luminosité (due à la production nécessaire d'anti-protons), ce qui fait qu'il ne pourra pas arriver, avec ses plus de 15 ans de fonctionnement, à plus d'une grosse dizaine de fois la luminosité prévue au LHC d'ici fin 2012!!

a+


Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Bulletin du CERN - Lundi 9 mai 2011 :

Dernières nouvelles du LHC : les records sont faits pour être battus

Ces deux dernières semaines, le LHC a produit des collisions pour les quatre grandes expériences presque en continu. Parallèlement, le nombre de paquets par faisceau a progressivement augmenté.

Depuis la phase de nettoyage, le LHC est passé de 228 à 336, puis à 480, 624 et enfin 768 paquets par faisceau. Comme on peut le voir, chaque augmentation se fait par palier de 144 paquets, ce qui correspond à deux injections supplémentaires de 72 paquets depuis le SPS lors du remplissage de la machine. Après chaque augmentation, quelques jours sont consacrés à la production de résultats de physique pour vérifier les performances de la machine et s’assurer qu’aucun effet lié à l’intensité ne compromet sa protection.

Nos efforts ont porté leurs fruits ! Évidemment, chaque augmentation du nombre de paquets par faisceaux est synonyme d’un nouveau record interne en termes de luminosité de crête. De plus, le 21 avril, avec 480 paquets, le LHC a établi un nouveau record du monde de luminosité dans un collisionneur de hadrons en atteignant 4,4 x 1032 cm-2s-1. Cette luminosité est supérieure à celle de 4,024 x 1032 cm-2s-1 qu’avait atteinte le Tevatron de Fermilab en 2010. Notre nouveau record n’a duré que quelques jours, avant d’être balayé par celui de 8,4 x 1032 cm-2s-1 obtenu grâce à des faisceaux de 768 paquets.

La luminosité intégrée a augmenté en conséquence et le total de l’année pour ATLAS et CMS s’élève maintenant à plus de 250 pb-1. Une exploitation de 16 heures avec 624 paquets représente à elle seule une augmentation de 30 pb-1. L’énergie de faisceau stockée au début d’une exploitation dépasse à présent 50 MJ : un chiffre qui laisse rêveur...

Le mercredi 4 mai, le LHC est entré dans une phase de vérification de la machine de 5 jours. Celle-ci sera suivie d’un arrêt technique de 4 jours, puis à nouveau de 5 semaines d’exploitation pour la physique. Le relèvement du nombre de paquets par faisceau va se poursuivre jusqu’à atteindre un maximum potentiel de 1 400 pour l'année.


---------------------------------------------------
fin de citation


L'objectif initial était d'atteindre 900 paquets par faisceau "au cours de l'année 2011". Fin avril, on en était déjà à 768, ce qui laisse présager que cet objectif intermédiaire sera atteint très bientôt..

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui, ce qui confirme que la luminosité intégrée de 1/fb devrait être atteinte d'ici fin juin, et donc peut-être 10/fb d'ici décembre...nous ne sommes peut-être plus très loin de "voir" quelque chose...let's keep fingers crossed!

Partager ce message


Lien à poster
Partager sur d’autres sites

Simon, j'ai du mal avec vos unités, etc.

Pourrais-tu comparer les performances actuelles, à celles annoncées dans les spécifications avant la mise en route du bosondrome ?

Merci

S

Partager ce message


Lien à poster
Partager sur d’autres sites
AFP - 17/05/2011 à 17:17

L'énigme du boson de Higgs pourrait être résolue d'ici fin 2012

L'accélérateur de particules le plus puissant au monde devrait permettre de trancher d'ici la fin 2012 la question de l'existence ou de la non-existence du boson de Higgs, une particule-clé recherchée depuis des décennies, ont estimé mardi des physiciens.


"J'ai bon espoir que d'ici la fin 2012 nous aurons une réponse à la question de Shakespeare pour le boson de Higgs - être ou ne pas être? -", a déclaré Rolf-Dieter Heuer, directeur général du Centre européen de la recherche nucléaire (Cern) lors d'une conférence de presse à Londres.
Le Grand collisionneur de hadrons (LHC) du Cern, qui est l'accélérateur de particules le plus puissant du monde, est situé à proximité de Genève, enfoui à 100 mètres de profondeurs sous la frontière franco-suisse.
Une des premières tâches assignées à ce gigantesque instrument scientifique a été de progresser dans la traque du boson de Higgs afin de résoudre une des grandes énigmes de la physique : savoir pourquoi certaines particules ont une masse et d'autres pas.

Le boson, qui porte le nom du physicien britannique Peter Higgs qui a supposé son existence en 1964, est une des ultimes pièces manquantes du Modèle standard, théorie utilisée par les physiciens pour décrire toutes les particules et forces dans l'univers.
"D'ici la fin 2012, soit nous aurons découvert le boson de Higgs du Modèle Standard, s'il existe, soit nous exclurons son existence", a déclaré Fabiola Gianotti, porte-parole du plus gros collisionneur, baptisé Atlas, du Cern
Au LHC (Large Hadron Collider), des faisceaux de protons sont accélérés à des vitesses proches de celle de la lumière dans un anneau de 27 km de diamètre enfoui à 100 mètres de profondeur. Circulant en sens opposés, les particules entrent en collision, atteignant brièvement des températures très élevées - jusqu'à 100.000 fois celle du soleil.
L'objectif est de recréer les conditions d'énergie intense des premiers instants de l'univers.

Partager ce message


Lien à poster
Partager sur d’autres sites
Serge,

C'est difficile à dire, les prévisions de performance ont largement changé au cours des années. Par contre depuis le démarrage du LHC en novembre 2009, les performances sont égales voire supérieures à ce qui était attendu. Il y a bien sûr l'argument relatif au fait que nous sommes à 7 TeV et non pas à 14 TeV, mais le CERN a décidé de jouer la prudence, surtout après le crash de 2008...

Partager ce message


Lien à poster
Partager sur d’autres sites

Concernant la luminosité, la performance nominale annoncée pour le LHC était annoncée à 10^34 cm2/s "après quelques années d'exploitation", dixit le CERN. Cela correspond à environ 600 millions de collisions par seconde en moyenne. Au terme de l’exploitation du LHC en 2010, la luminosité était d’environ 2×10^32 cm2/s, soit quelques millions de collisions de protons par seconde.

Pour 2011 il est question d'augmenter la luminosité d’au moins un facteur deux ou trois (selon les sources) par rapport à la valeur atteinte en 2010...

Le dernier chiffre record aux dernières nouvelles (fin mars) se situait à
8,4x10^32 cm2/s obtenu grâce à des faisceaux de 768 paquets.

Le LHC est conçu pour fonctionner jusqu'à 2808 paquets par faisceau, séparés par un intervalle d’à peine 25 nanosecondes. Comme nous ne sommes qu’au début de l’exploitation du LHC, les chiffres sont plus modestes. L’intervalle entre paquets est encore de 50 nanosecondes. Toutefois, grâce à l’augmentation régulière du nombre de paquets les expériences LHC ont déjà recueilli en 2011 beaucoup plus de données que pendant toute l’année 2010.
L'objectif fin 2011 est de 1400 paquets par faisceau, et on semble en très bonne voie..

Un faisceau du LHC n’est pas une succession continue de particules, le faisceau est constitué de tronçons de quelques centimètres de long comprimés de façon à atteindre au point de collision la taille d’un cheveu humain. En tous les autres points de l’anneau, la taille du faisceau varie, mais elle est normalement inférieure à un millimètre.

Ces tronçons sont sont appelés des paquets. Chaque paquet contient environ cent milliards de protons. Pour donner une idée de la dimension des protons, si chacun d’eux avait la taille d’une bille, la longueur du paquet serait égale à la distance entre la Terre et Uranus et sa largeur serait comparable à la distance entre la Terre et la Lune. La distance entre deux protons voisins serait de l’ordre de la distance entre Genève et Hambourg.
Il n’est donc pas surprenant que, lorsque des paquets se croisent au LHC, seule une poignée d’entre eux entrent en collision.

Les découvertes en physique des particules sont un processus statistique, et c’est pourquoi il est important d’accroître le nombre de paquets pour augmenter le nombre de collisions.


la luminosité n’est pas à proprement parler le taux de collisions, elle mesure le nombre de particules qu’il est possible de concentrer dans un espace donné, à un moment donné. Cela ne signifie pas que ces particules entreront toutes en collision, mais plus on peut en concentrer dans un espace donné, plus il y aura de chances qu’elles entrent en collision.

L’autre manière d’utiliser la luminosité est de l’accumuler, ou de l’"intégrer". Cela permet de calculer le nombre total de collisions qui se sont produites. Par exemple, la luminosité intégrée enregistrée en 2010 par les expériences ATLAS et CMS était de 45 pb-1, ce qui équivaut à plus de 3000 milliards de collisions.

Suite aux progès enregistrés depuis le démarrage en 2011, la luminosité intégrée a augmenté en conséquence, et le total de l’année pour ATLAS et CMS s’élevait fin mars, donc provisoirement, à plus de 250 pb-1. Une exploitation de 16 heures avec 624 paquets représente à elle seule une augmentation de 30 pb-1.

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci Daniel...

J'ai du mal à suivre... Il n'y a pas un facteur 50 entre les prévisions (10 P 34) et la performance actuelle (2 x 10 P 32) ?

Cela dit, si j'ai bien compris, la performance s'améliore progressivement...

S

Partager ce message


Lien à poster
Partager sur d’autres sites
Vivement qu'il trouve quelque chose, car pour l'instant, c'est la technique qui se regarde le nombril...

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant