- le  
L’actu des sciences - Mars 2014
Commenter

L’actu des sciences - Mars 2014

De l’antimatière en faisceau.
 
La plupart des univers fantastiques présentent toute sorte de créatures extraordinaires, souvent recensées dans un Manuel des Monstres ou équivalent. Le merveilleux monde des physiciens ne fait pas exception à la règle et possède un large bestiaire de particules, des plus familières comme les électrons aux plus exotiques [1]. Dans cette cohorte de particules, l’antimatière tient une place particulière et a inspiré quantité d’œuvres de science-fiction, du cerveau positronique d’Isaac Asimov aux bombes d’antimatières de Peter F. Hamilton.
 
« Dan Brown was here – A&D » : une référence au roman Ange et Démon gravée au CERN sur un mur de l’expérience ALPHA, qui produit de l’antimatière.
 
Pure spéculation théorique il y a moins d’un siècle, l’antimatière est aujourd’hui bien connue, reconnue, produite naturellement comme artificiellement et largement étudiée. Les difficultés techniques limitent le plus souvent ces recherches à l’analyse de quelques particules d’antimatière ; cependant, le CERN (Organisation Européenne de Recherche Nucléaire) est parvenu à créer et à manipuler non seulement des particules isolées, mais aussi de vrais atomes d’antimatière [2]. 
 
Sur les traces de l’antimatière.
La matière qui nous entoure et qui compose l’Univers est essentiellement [3] faite d’atomes (voir figure 1). Ces atomes sont eux-mêmes constitués d’un nuage d’électrons qui entoure un noyau, assemblage de protons et de neutrons. L’atome d’hydrogène, le plus simple et le plus répandu dans l’Univers, est fait d’un proton et d’un électron.  Protons et neutrons sont eux-mêmes faits de 3 particules appelées quarks (deux quarks « up » et un quark « down » pour un proton ; deux quarks « down » et un quark « up » pour un neutron). Quarks up, quarks down et électrons sont des particules élémentaires, c’est-à-dire qu’elles ne semblent pas être composées d’autres particules plus petites ou présenter une structure interne.
 
 
Figure 1 : le modèle standard de la théorie des particules présente 12 particules de matière, regroupées en trois familles. Les quarks up et down peuvent s’assembler pour former des protons (uud) et des neutrons (udd) ; avec les électrons, ils représentent la quasi-totalité de la matière qui nous entoure.
 
À ces trois particules élémentaires, il convient d’en rajouter une quatrième, le neutrino, pour former l’une des trois familles de particules de matière connues par la physique des particules. Les deux autres familles sont analogues à la première et contiennent elles aussi deux quarks, un équivalent d’électron et un neutrino associé (la seconde famille comprend le quark charm et le quark strange, le muon et le neutrino muonique ; la troisième famille comprend le quark top (ou truth) et le quark bottom (ou beauty), le tau et le neutrino tauique).
Mais l’ensemble de ces particules n’est pas complet. Le premier à s’en rendre compte est le physicien britannique Paul Dirac. À la fin des années 1920, Dirac, encore jeune étudiant, travaille à la construction de la mécanique quantique – à l’heure actuelle, l’enseignement de la physique quantique partout dans le monde suit encore très précisément les conventions qu’il a inventées. À l’époque, la physique des particules balbutiante ignorait largement l’existence des quarks : seuls étaient connus le proton et l’électron, identifié par Jospeh John « J.J. » Thomson quelques années auparavant. Un des premiers succès de la mécanique quantique avait été de parvenir à décrire le comportement d’un électron autour d’un proton (c’est-à-dire d’un atome d’hydrogène) avec une précision jusqu’alors inégalée et une confirmation expérimentale éclatante. Cependant, la finesse des mesures augmentant, on finit par trouver un décalage entre les prédictions de la théorie quantique et les résultats effectivement mesurés.
Pour Dirac, ce décalage vient d’une limite des équations utilisées jusqu’alors. Autour du noyau, l’électron peut atteindre des vitesses vertigineuses, proches de celles de la lumière. Or le comportement d’une particule à de telles vitesses ne suit plus les règles de la physique classique ; il faut pour le décrire correctement tenir compte de la relativité restreinte proposée par Einstein en 1905. Dirac s’attaque à un problème colossal : trouver une équation qui parvienne à décrire un électron avec la physique quantique tout en respectant la relativité restreinte d’Einstein [4].
Il y parvient en 1928, en établissant une formule passée à la postérité sous son nom et compatible avec l’ensemble des résultats expérimentaux. Pour autant, cette découverte ne règle pas complètement la question, car l’équation admet deux jeux de solutions. Une première solution correspond bien à l’électron et prédit des comportements en accord avec les mesures. La seconde semble décrire une particule parfaitement identique à l’électron, mais dotée d’une charge électrique opposée : +1.6 10-19 coulomb, alors que l’électron porte une charge de -1.6 10-19 coulomb. Ce résultat jeta le trouble au sein de la communauté de la toute jeune mécanique quantique : s’agissait-il d’un simple artefact de calcul, d’un résultat purement mathématique, donné par les équations mais sans réalité physique ? Ou était-il possible de donner un sens à cette seconde solution ? Rétrospectivement, le célèbre Heisenberg (celui du principe d’incertitude, récompensé du prix Nobel en 1932 « pour la création de la mécanique quantique »), dira en interview [5] : « jusqu’à ce moment, j’avais eu l’impression que la mécanique quantique avait atteint un havre, un port. La découverte de Dirac nous a tous rejetés en pleine mer ».
La seule particule de charge positive connue à l’époque était le proton et de nombreuses propositions tentèrent de lui attribuer le rôle de cette seconde solution ; mais le  proton est environ 1000 fois plus lourd que l’électron alors que l’équation de Dirac envisageait une particule de même masse que l’électron. Toutes ces tentatives restèrent vaines.
Trois ans plus tard, en 1931, Dirac finit par admettre l’idée qu’une particule miroir de l’électron puisse effectivement exister, bien qu’aucune observation n’en ait jamais trouvé trace. Il invente ainsi la première particule d’antimatière : un partenaire en tout point semblable à la particule associée, mais de charge opposée.
Parfois (rarement) et avec un peu de chance, les choses avancent très rapidement en physique. Carl Anderson, alors jeune chercheur à Caltech, travaillait à l’époque sur les rayons cosmiques, un phénomène récemment découvert et a priori sans rapport avec le problème de Dirac. Produites dans des étoiles ou issues de nuages de gaz, des particules (le plus souvent des protons) parcourent à l’espace à grande vitesse et dans tous les sens. Immanquablement, un certain nombre d’entre elles arrivent sur Terre et forment ces rayons cosmiques. En heurtant les molécules de l’atmosphère, elles libèrent de larges quantités d’énergie qui donne naissance à de nombreuses particules comprenant un large échantillon de l’ensemble du bestiaire des particules. A leur tour, ces produits de réaction risquent de heurter des molécules environnantes et finissent par former une gerbe de plusieurs kilomètres de large.
Anderson observait la trajectoire de ces particules venues de l’espace [6] lorsqu’il obtient un résultat inespéré (voir figure 2) : il observe la trace d’une particule de même masse que l’électron, mais de charge opposée, en accord complet avec la théorie de Dirac ! 
 
  
Figure 2 : À gauche : l’arrivée d’une seule particule de haute énergie dans l’atmosphère génère une cascade de particules et d’antiparticules.  À droite : la première preuve expérimentale de l’existence de l’antimatière. La trace courbe correspond à une particule de même masse que l’électron, mais de charge opposée. 
 
Après confirmation des résultats par une seconde équipe, Anderson nomme cette particule positron [7] et prouve du même coup l’existence de l’antiélectron et sa présence dans les rayons cosmiques. Depuis, chacun des douze particules de matière découvertes s’est vue gratifiée d’un doppelgänger et on parle ainsi d’anti-quark up, d’antineutrino, etc.
 
Matière, antimatière, même galère ?
L’équation de Dirac décrit le comportement de l’antimatière de manière très simple : l’antimatière semble se comporter exactement comme la matière, avec simplement une charge électrique opposée. Cependant, la rencontre d’une particule et de son antiparticule a des conséquences dramatiques : toutes deux disparaissent en libérant de grandes quantités d’énergie, suivant la célèbre formule d’Einstein E=mc² (où E est l’énergie libérée, m la masse de la particule et c = 300 000 000 mètres par seconde est la vitesse de la lumière). Ainsi, si un kilo d’antimatière entrait en contact avec un kilo de matière, son annihilation libérerait une énergie de l’ordre de la consommation totale des États-Unis pendant un an, ou de cent mille fois l’explosion d’Hiroshima. À l’échelle de la masse des particules (quelques millièmes de milliardièmes de milliardièmes de kilogramme), l’énergie libérée est moins cataclysmique mais l’annihilation reste un phénomène particulièrement virulent. On peut alors comprendre la rareté de l’antimatière : l’Univers étant fait de matière, la moindre particule d’antimatière qui serait créée et tenterait de se balader tomberait presque immédiatement sur une particule avec laquelle elle s’annihilerait.
On peut légitimement se demander pourquoi notre Univers est constitué de matière et non d’antimatière. Si toutes deux avaient été générées en quantités égales lors du Big Bang, alors l’annihilation aurait dû être totale et la matière ne pourrait pas être prépondérante : l’Univers ne serait alors occupé que par de l’énergie et aucune particule ou antiparticule ne pourrait exister plus de quelques instants. Il faut donc imaginer que le Big Bang ait généré dès le départ davantage de matière que d’antimatière. Mais si matière et antimatière sont bel et bien équivalentes, comment expliquer une répartition aussi inégale ?
Cette question reste ouverte à l’heure actuelle et motive une grande partie de la recherche dans le domaine. Mais si une réponse satisfaisante n’a pas encore été trouvée, de nombreuses pistes ont déjà été explorées. En particulier, l’égalité parfaite entre matière et antimatière a largement été remise en question : James Watson Cronin et Val Logsdon Firth ont découvert en 1964 qu’il existe en réalité des différences fondamentales entre matière et antimatière, contrairement à ce qu’une première approche pouvait laisser penser. En d’autres termes, si on inversait d’un coup de baguette magique toutes les particules en antiparticules et inversement, le monde ne serait pas exactement le même. Dans le jargon, on parle d’une brisure de symétrie (parce qu’antimatière et matière sont presque équivalentes mais pas tout à fait) de conjugaison de charge (parce que c’est le nom de l’opération imaginaire qui consiste à inverser la charge des particules et donc à les transformer en antiparticules).
 
L’exemple le plus emblématique de cette différence est sans doute le neutrino (voir figure 3). Entre autres propriétés, le neutrino est doté d’une orientation intrinsèque. Cette orientation peut être alignée avec la direction de son mouvement (on parle alors de neutrino droit) ou au contraire opposée à sa trajectoire (on parle de neutrino gauche) ; mais seul le neutrino gauche est capable d’interagir avec d’autres particules. Le neutrino droit, lui, n’interagit avec aucune particule et peut donc traverser l’Univers sans affecter quoi que ce soit. La situation est complètement inversée pour son antiparticule : seul un antineutrino droit peut interagir tandis qu’un antineutrino gauche ignore royalement toutes les autres particules.  
 
Figure 3 : la transformation de la matière en antimatière (symétrie de conjugaison de charge C) change les neutrinos gauches (qui interagissent) en antineutrinos gauches (qui n’interagissent pas). La transformation de la gauche en droite (symétrie miroir P) change les neutrinos gauches (qui interagissent) en neutrinos droits (qui n’interagissent pas). Ni la symétrie C, ni la symétrie P ne sont donc des vraies symétries : l’Univers ne serait pas le même si la matière était de l’antimatière ou si droite et gauche étaient inversées.
En revanche, la symétrie semble être rétablie si on change à la fois les particules en antiparticules ET la droite en gauche (symétrie CP).
 
Imaginons un neutrino gauche, capable d’interagir. Si on changeait tout d’un coup les particules en antiparticules, notre neutrino deviendrait un antineutrino gauche et cesserait purement et simplement d’interagir ! Pour imaginer un monde réellement symétrique du nôtre, il faudrait donc changer non seulement les particules en antiparticules mais aussi inverser la gauche et la droite pour transformer notre antineutrino gauche en antineutrino droit. On parle alors de symétrie CP (C pour la conjugaison de charge et  P pour la parité, c’est-à-dire l’inversion de la gauche et de la droite).
Une analyse encore plus fine révèle les limites de la symétrie CP : il semblerait que pour obtenir un Univers réellement symétrique du nôtre, il faille changer non seulement les particules en antiparticules et la gauche en droite, mais aussi inverser le sens du temps. On parle alors de la symétrie CPT, qui n’a jusqu’à maintenant jamais été mise en défaut.
 
L’antimatière domestiquée
Matière et antimatière ne sont donc pas équivalentes et de nombreuses expériences cherchent  à déterminer à quel point cette différence est profonde. Est-ce qu’une antiparticule réagit comme une particule à la gravitation ? Si on la lâche, va-t-elle tomber vers la Terre ou bien, hypothèse fantaisiste mais non exclue, sera-t-elle repoussée vers le ciel ? Puisqu’un proton et un électron peuvent se combiner pour former un atome d’hydrogène, est-ce qu’un antiproton et un antiélectron peuvent se combiner pour former un antiatome d’hydrogène ? Et un tel antiatome aurait-il les mêmes niveaux d’énergie qu’un vrai atome ? Si la symétrie CPT est effectivement respectée, un atome devrait avoir le même spectre d’énergie que son partenaire d’antimatière ; l’étude du spectre de l’antimatière est donc une façon de tester les limites de cette symétrie supposée universelle !
 
Figure 4 : l’atome d’hydrogène, l’édifice atomique le plus simple de l’Univers, est constitué d’un électron et d’un proton. Son équivalent en antimatière, l’antihydrogène, est l’assemblage d’un antiélectron et d’un antiproton.
 
Pour aborder ces questions, cinq collaborations du CERN travaillent spécifiquement à produire et à étudier l’antimatière, non seulement sous forme de particules mais aussi sous forme d’édifices plus complexes (voir figure 4). Comment générer de l’antimatière ?
Comme on l’a vu, l’antimatière est formée de manière naturelle par l’arrivée de particules de haute énergie dans l’atmosphère terrestre (les fameux rayons cosmiques). Elle apparaît aussi lors des désintégrations radioactives dites Bêta+, qui affectent en particulier les atomes de sodium 22. Lors de ces désintégrations, un proton du noyau est transmuté en neutron et libère au passage un neutrino et un antiélectron, qui parcourt habituellement une petite distance avant de rencontrer un électron avec lequel s’annihiler.
 
          
Figure 5 : deux sources naturelles d’antiparticules. À gauche : lors de la désintégration radioactive bêta + d’un atome, un proton du noyau se transforme en neutron et expulse un neutrino et un antiélectron. 
 
La méthode du CERN repose sur ces deux modes de production d’antimatière. Pour générer des antiprotons, des protons sont accélérés à des vitesses proches de celle de la lumière, puis lancés sur une cible en métal (voir figure 6). Comme les particules cosmiques, ces protons génèrent une gerbe de particules, parmi lesquels se trouvent des antiprotons. Un accélérateur de particules inversé décélère ensuite ces antiprotons jusqu’à ce qu’on puisse les piéger dans un champ électrique. De leur côté, les positrons proviennent de la désintégration d’atomes de sodium et sont injectés dans le piège des antiprotons, avec lesquels ils se combinent pour former des antiatomes d’hydrogène. L’efficacité du processus est douloureusement faible : en mélangeant ensemble quelques centaines de millions d’antiprotons et d’antiélectrons, l’expérience ASACUSA parvient ainsi à former environ 25 atomes d’antihydrogène par heure !
L’ensemble de l’expérience doit bien évidemment être réalisé sous un vide quasi parfait, sous peine que des molécules d’air ne viennent annihiler les antiparticules laborieusement obtenues. Impossible également d’attraper les antiatomes avec quelque pince matérielle que ce soit : toutes les manipulations doivent être faites sans contact, en utilisant des lasers et des champs magnétiques finement ajustés [9].
 
     
Figure 6 : À gauche : schéma de principe du faisceau de particules du CERN (cliquer pour agrandir). Les protons sont initialement accélérés dans un accélérateur linéaire, le LINAC 2. Ils sont ensuite transférés dans une succession d’accélérateurs circulaires (Booster, puis Proton Synchrotron (PS), puis Super Proton Synchrotron (SPS)) ; chaque accélérateur augmente l’énergie des protons et sert de réservoir pour remplir l’accélérateur suivant. Depuis le SPS, les protons peuvent être chargés dans le LHC, le célèbre accélérateur de 27 km de diamètre. Les expériences d’antimatière prélèvent une partie du faisceau entre le PS et le SPS et le projettent sur une cible métallique. Les antiprotons produits par la collision sont décélérés dans l’Antiproton Decelerator (AD) jusqu’à ce qu’on puisse les manipuler.
À droite : schéma de principe de l’expérience ASACUSA (cliquer pour agrandir). Les antiprotons proviennent de l’AD, les antiélectrons d’un échantillon de sodium 22. Les antiparticules sont mélangées dans un piège magnétique (« cusp trap »), où une très faible proportion forme des atomes d’antihydrogène. Ces atomes sont ensuite transférés sous forme de faisceau d’antimatière vers une région de l’expérience sans champ magnétique (« Hyperfine spectrometer line ») où on espère mesurer leur spectre avec une précision inégalée.
 
La première production d’un antiatome date de 1995 ; à l’époque, la collaboration LEAR se félicitait d’avoir produit 9 atomes d’antihydrogène, décélérés jusqu’à « seulement » 90 % de la vitesse de la lumière. Quinze ans plus tard, la collaboration ALPHA parvenait à piéger pendant plus d’un quart d’heure quelque 300 atomes d’antihydrogène [10] et observait peu après leurs premières propriétés [11]. Et le mois dernier, ASACUSA annonçait la première réalisation d’un faisceau contrôlé d’atomes d’antihydrogène : dans l’enceinte sous vide de l’expérience, 80 atomes ont été détectés avec succès à 3 mètres de leur lieu de création. L’étape est indispensable pour poursuivre l’étude de l’antimatière : l’objectif est d’étudier ces antiatomes au vol, loin de tout champ magnétique qui pourrait augmenter l’incertitude des mesures, pour pouvoir mettre en évidence un éventuel défaut de la symétrie CPT.
Loin d’attendre ces résultats de physique fondamentale, les applications de l’antimatière sont d’ores et déjà nombreuses. L’annihilation électron – positron libère une énergie caractéristique facile à identifier et peut être utilisée par exemple dans l’imagerie médicale. Des traceurs légèrement radioactifs sont injectés au patient et configurés de façon à se fixer sur un tissu précis. Lors de sa désintégration Bêta+, le traceur émet un positron qui s’annihile immédiatement avec un électron environnant et libère de l’énergie sous forme d’une onde électromagnétique qui sort sans encombre du corps du patient. En localisant la source de l’onde, on peut donc déterminer précisément et en 3D la position des tissus où se sont fixés les traceurs ; cette méthode de tomographie par émission de positrons (figure 7) est bien évidemment sans danger pour le patient, les doses radioactives étant extrêmement faibles.
 
Figure 7 : image obtenue par Tomographie par émission de positons. On cherche dans le corps du patient la source du rayonnement à 511keV caractéristique de l’annihilation électron – positron. On localise ainsi les zones où se sont fixés les traceurs préalablement injectés.
 
Si les applications médicales sont assez nombreuses, les applications militaires qui donnent tant de matière aux auteurs de science-fiction sont loin d’être à l’ordre du jour [12]. À l’heure actuelle, la production annuelle du CERN représente quelques nanogrammes par an, pour plusieurs dizaines de millions de dollars. L’équivalent d’une bombe atomique nécessiterait les stocks cumulés de près de cent millions d’années (rappelons qu’on ne sait piéger l’antimatière que pendant quelques minutes) et coûterait une somme astronomique… pour un résultat mille fois moins puissant qu’une bombe H !
 
 
Références
 
[1] Dans le grand livre des monstres de la physique des particules, on distingue :
  • La matière ordinaire : assemblage des douze fermions du modèle standard présentés en figure 1.
  • L’antimatière : objet de cette chronique, assemblage des douze antiparticules associées à chacune des douze particules de la figure 1.
  • La matière noire : de composition inconnue, faite ni de matière ni d’antimatière. Sa présence est trahie uniquement par son influence gravitationnelle à l’échelle de l’Univers. Elle est censée conférer toutes sortes de pouvoir à l’Arcadia. Voir la chronique de mai 2013 sur le côté obscur de l’Univers. A priori, un trou noir n’est pas composé de matière noire, mais bien de matière ordinaire compactée lors de l’effondrement d’une étoile.
  • La matière exotique : spéculation purement théorique sans aucune preuve de présence à l’heure actuelle. Ingrédient indispensable des trous de ver et autres warps drive.
[2] Kuroda, N. et al. A source of antihydrogen for in-flight hyperfine spectroscopy. Nat. Commun. 5:3089 doi: 10.1038/ncomms4089 (2014).
[3] D’après les observations les plus récentes, notre Univers est constitué à 68 % d’énergie noire (voir chronique de mai 2013), à 27 % de matière noire et seulement à 5 % de la matière « ordinaire » dont nous avons l’habitude. Toute cette matière est composée par les particules présentées dans la figure 1.
[4] On entend souvent que la relativité et la mécanique quantique ne sont pas compatibles ; on parle en réalité de la relativité générale, qui décrit la gravitation comme une courbure de l’espace-temps. La relativité restreinte (dont est issue la formule E=mc²) qui décrit les particules en mouvement à des vitesses proches de celles de la lumière est bien compatible avec la physique quantique ; les deux théories ont été unifiées par l’équation de Dirac
[6] Une chambre à brouillard ressemble à un aquarium clôt, empli de vapeur d’alcool à la limite de la condensation : la moindre perturbation risque de transformer la vapeur en gouttelettes en suspension dans l’air. Ainsi, le passage d’une particule chargée entraîne la formation d’une ligne de gouttelettes dans son sillage, ce qui permet de matérialiser sa trajectoire. La mesure de son rayon de courbure permet alors de déterminer la masse et la charge électrique de la particule.  
[7] C. D. Anderson, Physical Review 43 , 491 (1933). NB : on parle indifféremment de positrons, de positons ou d’antiélectrons.
[9] Le piégeage et le refroidissement des atomes d’antimatière reposent sur les mêmes principes que le piégeage et le refroidissement des atomes ordinaires décrits dans la chronique de septembre 2013
 

 
La formule du jour : l’énergie relativiste
 
La théorie de la relativité restreinte d’Einstein, publiée en l’an de grâce 1905, permet de décrire des objets se déplaçant à très grande vitesse. En particulier, elle prédit qu’une particule massive ne peut pas dépasser la vitesse de la lumière. C’est en essayant de rendre compatible la mécanique quantique avec les contraintes de la relativité restreinte que Paul Dirac a établi l’équation qui porte son nom et ouvert la voie vers l’antimatière.
 
La relativité restreinte a sans doute donné la formule la plus connue au monde, qui permet d’exprimer l’énergie d’un objet en fonction de sa masse. La formulation générale de la relation prend la forme suivante :
 
 
où m est la masse de l’objet, c = 300 000 000 mètres par seconde est la vitesse de la lumière et v est la vitesse de déplacement de l’objet.
 
Pour un objet immobile, la vitesse v est nulle, le facteur devant mc² vaut donc 1 et on retrouve la célèbre expression E=mc². Ce résultat traduit une correspondance fondamentale entre masse et énergie : l’un peut être convertit en l’autre, au prix d’un taux de change de c² = 9x1016. Quand une particule immobile rencontre une antiparticule partenaire, l’énergie libérée par l’annihilation est déterminée par cette formule. Dans le cas d’un électron et d’un positron, l’énergie est libérée sous la forme caractéristique de deux photons de 511keV, qui correspondent exactement aux 10-30 kg de l’électron ; c’est ce signal précis qui est identifié lors de l’imagerie par tomographie par émission de positrons.
 
Si une particule se déplace, elle acquiert une énergie cinétique. Plus elle se déplace vite, plus son énergie cinétique est importante : il est beaucoup plus difficile de ralentir une voiture de 100 km/h à 50 km/h que de 50 km/h à 0. La formule d’Einstein tient compte de l’énergie cinétique au travers du préfacteur, appelé facteur de Lorentz. Si le facteur de Lorentz vaut 1 à vitesse nulle, il augmente d’autant plus que la vitesse est élevée ; en d’autres termes, plus la vitesse est élevée, plus l’énergie portée par la particule est importante. Si la vitesse v de la particule se rapproche de celle de la lumière, le quotient v/c tend vers 1, le dénominateur tend donc vers 0 et le facteur de Lorentz diverge vers l’infini. Autrement dit, pour accélérer une particule de plus en plus près de la vitesse de la lumière, il faut lui fournir une énergie de plus en plus grande et qui tend vers l’infini quand v se rapproche trop de c. Cette formule condamne donc la possibilité pour une particule massive d’atteindre la vitesse la lumière, car il faudrait lui conférer une énergie strictement infinie.
 
On peut enfin remarque qu’à petite vitesse, l’expression précédente prend la forme E = mc² + ½mv² et retrouve donc l’expression de l’énergie cinétique de la physique newtonienne. On voit bien ici comment les théories successives peuvent élargir leurs domaines de validité mais se doivent de rester compatibles avec les théories précédentes.
 
 
Daniel Suchet

Genres / Mots-clés

Partager cet article

Qu'en pensez-vous ?