Le côté obscur de l’Univers
Les physiciens sont, dans l’ensemble, des gens prudents : ils préfèrent éviter l’épineuse question du « pourquoi », qu’ils laissent à la métaphysique, et se concentrer sur la question du « comment », qui résiste déjà très bien à leurs assauts. Il n’y a donc aucune théorie scientifique qui explique pourquoi l’Univers existe mais on trouve un certain nombre de modèles qui tentent d’expliquer comment, à partir d’un état initial donné, l’Univers a pu évoluer jusqu’à sa forme actuelle. Bien que très simple à formuler, le problème est extrêmement complexe ; même les modèles les plus élaborés présentent encore de larges zones d’ombre. Le modèle le plus consensuel, celui du Big Bang, prédit l’existence de deux ingrédients aujourd’hui parfaitement inconnus, différents de tous les autres composants de l’Univers, mais qui seraient censés représenter à eux seuls 95 % du contenu l’Univers. Appelés Matière Noire et Énergie Noire, en partie pour entretenir leur aura mystérieuse, ces deux ingrédients sont l’objet de toutes les attentions car ils détiennent droit de vie et de mort sur la théorie de Big Bang : si leur existence est avérée, la théorie sera largement renforcée ; elle sera définitivement caduque dans le cas contraire.
Très récemment, deux expériences indépendantes ont publié des résultats qui ont amplement fait parler d’eux. Les données du satellite Planck ont permis d’estimer la proportion de matière et d’énergie noire dans notre Univers avec une précision inégalée [1] et la collaboration Alpha Magnetic Spectrometer (AMS) affirme avoir trouvé la potentielle trace d’une particule de matière noire [2]. Le mystère du côté obscur de l’Univers n’est pourtant pas encore près d’être éclairci.
Big Bang Theory : une brève histoire de l’Univers
Pendant des siècles, l’humanité s’est représenté un Univers parfaitement immuable ; pour Aristote, la perfection du monde supralunaire vient précisément son absence totale de changements. Le modèle du Big Bang, proposé par Alexander Friedmann et Georges Lemaitre dans les années 1920 et largement confirmé depuis par les observations [3], donne une tout autre image. En s’appuyant sur la théorie de la gravitation élaborée par Einstein (la relativité générale), Friedmann et Lemaitre décrivent un Univers qui, loin d’être figé, est en perpétuelle évolution. Les observations d’Edwin Hubble en 1918 montrent que l’Univers s’étend toujours davantage, dans toutes les directions à la fois. Les objets célestes disséminés dans l’Univers sont alors entrainés et dispersés par son expansion, un peu comme les points à la surface d’un ballon qu’on gonfle s’éloignent les uns des autres (figure 1),

Figure 1 : les points à la surface d’un ballon s’éloignent les uns des autres lorsqu’on le gonfle. De la même manière, les objets répartis dans l’Univers s’éloignent les uns des autres au fur et à mesure de son expansion.
Cette image a une conséquence fondamentale : si l’Univers est plus contracté aujourd’hui que demain, il devait être encore plus petit hier et encore davantage le jour précédent ; à quantité de matière et d’énergie égale, il devait donc aussi être plus dense et plus chaud. En suivant cette évolution, il y a 13,8 milliards d’années, l’Univers devait être réduit à un point de volume nul, de densité et de température infinies ; une singularité qu’on appelle le Big Bang.
Partant du Big Bang, reprenons l’Univers dans le sens chronologique habituel (figure 2). Les instants qui suivent le Big Bang sont extrêmement chaotiques : les concentrations d’énergies mises en jeu sont titanesques et leurs fluctuations peuvent aussi bien donner naissance à toutes sortes de particules qu’annihiler chacune d’entre elles, tant et si bien qu’aucune particule ne peut exister plus de quelques milliardièmes de secondes. Au fur et à mesure que l’Univers se dilate, il devient moins dense, moins chaud ; le chaos commence à s’apaiser et les particules les plus légères, formées à partir de l’énergie ambiante, se stabilisent. Quelques minutes après le Big Bang, quand la température descend en dessous d’un milliard de degrés, les noyaux atomiques commencent à se former à leur tour et constituent un plasma qui occupe tout l’espace. L’Univers est encore tellement dense que la lumière ne parvient pas à s’y frayer un chemin. 380 000 ans après le Big Bang, l’Univers est suffisamment dilué pour cesser d’être opaque ; la lumière peut alors s’y propager librement et les atomes commencent à se rassembler en nuage de gaz qui donneront bientôt naissance aux étoiles puis aux planètes.
Figure 2 : l’histoire de l’Univers en un coup d’œil (cliquer pour agrandir)
Devenu froid, l’Univers continue son expansion de manière beaucoup plus paisible. Pour prédire son évolution ultérieure jusqu’à nos jours ou jusqu’à un futur plus lointain, il suffit alors de connaitre deux choses : les lois de la gravitation, qui décrivent comment les objets célestes, du fait de leur masse, s’attirent les uns les autres et influent sur l’Univers et la façon dont ces objets sont répartis l’espace. Cependant, il ne suffit pas de pointer un télescope vers le ciel pour compter les étoiles, les planètes et les nuages de gaz, estimer ainsi la distribution de masse de l’Univers et déterminer du même coup l’ensemble de son évolution. La découverte de la matière noire puis de l’énergie noire est venue compliquer singulièrement les règles du jeu.
À la croisée des mondes
La matière noire est une matière invisible, de nature totalement inconnue, n’interagissant quasiment que par effet gravitationnel mais dont l’abondance dans l’Univers est censée être au moins cinq fois supérieure à celle de la matière ordinaire, dite baryonique, qui compose les étoiles, les planètes, les nuages de gaz ou les humains…
Cette matière mystère a été imaginée la première fois par l’astronome Suisse Fritz Zwicky en 1933 : en mesurant les mouvements d’un amas de galaxies, Zwicky a observé un comportement incompatible avec les lois de la gravitation qui, jusqu’alors, s’étaient avérées particulièrement fiables. En effet, les galaxies semblaient se déplacer tellement vite que la force de gravité exercée par les unes sur les autres semblait être insuffisante pour les maintenir en un seul amas. Pour interpréter cette différence entre théorie et observations, Zwicky a proposé une hypothèse audacieuse en incluant dans ses calculs, en plus de la masse des galaxies étudiées, un terme de masse supplémentaire correspondant à une matière « noire » parfaitement invisible au télescope mais dont les effets gravitationnels sont suffisants pour assurer la cohésion de l’amas. Les conclusions de Zwicky ont été accueillies avec scepticisme par la communauté scientifique : rajouter un terme ad hoc dans une équation pour faire coller un modèle à une observation est généralement mal vu. Par ailleurs, Zwicky s’entendait particulièrement mal avec l’ensemble de ses pairs : outre ses légendaires crises de colère et ses idées farfelues, il avait pris l’habitude de qualifier ses collègues de spherical bastards, car, tout comme une sphère reste une sphère quel que soit l’angle sous lequel on la regarde, il considérait que ses confrères étaient en tout point de vue des abrutis ; une mauvaise habitude pour qui veut trouver une oreille attentive à de nouvelles idées.
Quarante ans plus tard, de nouvelles observations, indépendantes de celles de Zwicky, ont fait ressurgir l’idée de la matière noire. Aujourd’hui, les vérifications expérimentales sont tellement nombreuses que cette hypothèse décriée est devenue consensuelle. En recoupant différentes méthodes de mesure (figure 3), on a pu estimer à 5.45 le rapport entre la masse de matière noire et celle de matière ordinaire. Pour décrire l’évolution de l’Univers, il faut donc prendre en compte la masse des objets visibles et une masse 5.45 fois plus importante de matière noire.


Figure 3 : Deux façons de détecter la matière noire. À gauche : une masse suffisante peut courber la trajectoire de la lumière et former une lentille gravitationnelle. La déformation de l’image d’une galaxie (l’arc de cercle à gauche) permet d’estimer la masse de la lentille et de se rendre compte que la matière visible est insuffisante. À droite : on peut calculer la distribution de masse responsable du mouvement d’une galaxie. On a représenté sur cette photo la matière visible (en rose) et la répartition de la matière noire (en bleu)
La composition de cette matière noire reste encore un mystère. Puisqu’elle est invisible, la matière noire doit n’interagir que très peu avec le reste de l’Univers (sans quoi nous verrions ces interactions), peut être uniquement par le biais de la force de gravité, ce qui exclut la plupart des particules que nous connaissons. Par ailleurs, le modèle du Big Bang permet d’estimer la quantité de matière ordinaire produite au début de notre Univers et cette quantité, cinq fois trop petite, n’est pas compatible avec la quantité mesurée de matière noire ; la matière noire ne peut donc pas être constituée par les mêmes particules que celles qui composent la matière qui nous entoure. Les trous noirs forment des candidats peu crédibles : l’étude de la répartition de la matière noire dans l’Univers montre une homogénéité qui exigerait un nombre colossal de trous noirs dont la présence aurait des conséquences spectaculaires qu’on aurait dû observer. Il faut également exclure l’antimatière ordinaire: prédite par Paul Dirac en 1928, observée pour la première fois en 1932 et couramment produite de nos jours dans les accélérateurs de particules, l’antimatière ne diffère de la matière ordinaire que par sa charge et possède donc sensiblement les mêmes propriétés. De plus, la rencontre entre une particule et son antiparticule entraine l’annihilation de la paire et la libération d’une grande quantité d’énergie facilement identifiable ; l’absence de ce signal dans les observations condamne définitivement la candidature de l’antimatière.
Issu de l’imagination débordante des théoriciens, tout un bestiaire de particules a été proposé pour décrire la matière noire [4]. Parmi elles, les neutralinos, des particules neutres issues de la théorie de la Super Symétrie, ont particulièrement le vent en poupe. S’il existe bien des particules de matière noire, quelles qu’elles soient, elles doivent elles aussi avoir leurs propres anti-partenaires et la rencontre entre matière noire et anti matière noire doit également libérer des grandes quantités d’énergie. Si l’énergie libérée est assez grande, elle peut à son tour donner naissance à une paire de particule et d’antiparticule de matière ordinaire. Certains modèles, dont celui du neutralino, permettent ainsi à la matière noire de créer simultanément un électron et son antiparticule, un positron. La matière noire pourrait donc trahir sa présence en produisant un flux de positron trop important.


Figure 4 : deux détecteurs ont récemment publié des résultats sur la matière noire et l’énergie noire. À gauche : AMS a analysé les rayons cosmiques. À droite : Planck a mesuré le fond diffus cosmologique.
C’est ce signal que tente de mesurer le détecteur Alpha Magnetic Spectrometer (AMS-02), actuellement en orbite autour de la Terre (figure 4). Issu de la collaboration de 16 pays, 600 physiciens et 60 instituts de recherche chapeautés par l’Organisation Européenne de Recherche Nucléaire (CERN), AMS est un détecteur de particules amarré depuis 2011 à la Station Spatiale Internationale, la seule à pouvoir alimenter le détecteur pendant les 10 ans que durera sa mission. AMS analyse des rayons cosmiques, des flux de particules élémentaires de haute énergie qui traversent l’espace et sont le plus souvent arrêtés par l’atmosphère terrestre. Sur les quelques milliards de particules détectées par AMS, un excès de près de 400 000 positrons a été mesuré. Outre un communiqué de presse du CERN [5], ce résultat majeur a d’ores et déjà déclenché de nombreuses controverses : si les défenseurs des neutralinos veulent y voir une validation de leur théorie, il existe également d’autres explications à cet excès de positrons qui n’impliquent pas la matière noire [6]. On peut par exemple imaginer qu’un pulsar (une étoile à neutrons en rotation rapide) puisse générer ce genre de signal [6]. Il faudra donc attendre un résultat plus décisif pour pouvoir déterminer si AMS a bel et bien vu une manifestation de la matière noire ou simplement capté le signal d’un évènement astrophysique totalement indépendant. En attendant, le mystère de la matière noire reste entier, mais n’a pas pour autant le monopole de la préoccupation des cosmologistes.
La vraie fausse erreur d’Einstein
L’énergie noire est une composante de l’Univers elle aussi inconnue dont le comportement est radicalement opposé à celui de la matière : alors que la matière s’attire, s’agglomère et se tasse sous l’effet de la gravité, l’énergie noire force au contraire l’Univers à se dilater comme on tire sur un élastique.
Lorsqu’il écrit les équations de la Relativité Générale en 1915, Einstein se rend compte que sa théorie prédit un destin tragique à l’Univers. La matière noire, comme la matière ordinaire, attire par son influence gravitationnelle l’ensemble des objets de l’Univers. Si l’Univers n’était constitué par la matière visible et la matière noire, il finirait nécessairement par s’effondrer sur lui-même, tout comme une pièce lancée en l’air finira nécessairement par retomber sur Terre. Einstein ne croit pas que l’Univers s’achèvera dans un Big Crunch ; en réalité, influencé par les croyances de l’époque, il ne croit pas que l’Univers évolue du tout. Pour compenser l’effet de la masse de la matière et assurer la stabilité de l’Univers, Einstein introduit dans son équation une constante appelée constante cosmologique et qui décrit l’effet d’une énergie noire, invisible, qui s’oppose à la gravité. Lorsqu’il entend parler de la théorie du Big Bang validée par les observations d’Edwin Hubble et admet en 1933 que l’Univers n’est pas statique, il raye la constante cosmologique de son équation ; il dira plus tard qu’introduire cette constante aura été « la plus grande erreur de sa vie ».
L’erreur d’Einstein a fait long feu. En 1998, Adam Riess, Brian Schmidt et Saul Perlmutter ont entrepris de mesurer la vitesse d’expansion de l’Univers en observant des supernovae, des explosions d’étoiles tellement lumineuses qu’elles sont visibles à plusieurs centaines de millions d’années-lumière de distance. Leurs observations ont abouti à un résultat inattendu, qui leur a valu le prix Nobel en 2011 [7] : certes l’Univers s’étend, mais son expansion est accélérée ; autrement dit, l’Univers s’étend de plus en plus vite, comme si la pièce lancée vers le ciel ne se contentait pas de monter en l’air mais s’élevait de plus en plus vite au lieu de ralentir et de retomber. Il a donc non seulement fallu réintroduire la constante cosmologique d’Einstein, mais en plus lui donner une valeur suffisamment importante pour qu’elle l’emporte très largement sur les effets gravitationnels qui tendent à faire s’effondrer l’Univers sur lui-même, ce qui a fait dire à Saul Perlmutter : « En introduisant sa constante cosmologique, Einstein est passé à côté du phénomène d'expansion accélérée de l'univers, et c'est vraiment dommage car sinon il serait aujourd'hui célèbre ».
Un formidable outil pour analyser la matière noire et l’énergie noire est le fond diffus cosmologique ou rayonnement fossile, c’est-à-dire les restes de la lumière libérée dans l’Univers au moment où, 380 000 ans après le Big Bang, l’espace est devenu transparent. L’Univers baigne littéralement dans cette lumière qui a été découverte par hasard en 1964 : Arno Penzias et Robert Wilson, deux astronomes, avaient installé une antenne relais pour communiquer avec deux satellites et mesuré sur la ligne une étrange friture qui semblait venir de toutes les directions à la fois. En racontant leurs problèmes à certains de leurs collègues, Penzias et Wilson ont compris que ces parasites étaient dus au fond diffus cosmologique et ont empoché un prix Nobel pour leur découverte quelques années plus tard, en 1978. Jusqu’il y a peu de temps, on pouvait encore voir la trace de ce rayonnement fossile dans une partie de la « neige » qui couvrait les postes de télévision lorsque l’antenne, mal ajustée, captait davantage les bruits de l’Univers que les émissions programmées.


Figure 5 : À droite,: la carte, projetée à plat, des fluctuations du fond diffus cosmologique mesurées par Planck. À gauche : Kobe, WMAP puis Planck ont considérablement amélioré la précision de leurs mesures successives.
Le fond diffus cosmologique n’est pas parfaitement homogène : dans certaines directions, on observe un peu plus ou un peu moins de flux que dans d’autres. John Matter et George Smoot, eux aussi récompensés par un prix Nobel en 2006 [8], ont montré qu’une analyse suffisamment détaillée de ces légères fluctuations pouvait permettre de déterminer avec précision le contenu de l’Univers quelques milliers d’années après le Big Bang. Trois générations de satellites ont scruté l’espace pour parvenir à former la carte la plus précise possible de ce fond diffus cosmologique (figure 5). Le plus récent d’entre eux, le satellite Planck, vient juste de présenter ses résultats, qui affinent une composition connue depuis une dizaine d’année : notre Univers est constitué à 68.3 % d’énergie noire et à 26.8 % de matière noire. Notre matière ordinaire ne représente quant à elle que les 4.9 % restants (figure 6).

Figure 6 : Planck a permis de mesurer avec davantage de précision la composition de notre Univers.
Malgré les efforts de la communauté scientifique, on ne sait donc encore rien (ou presque) de 95 % de l’Univers dans lequel nous vivons ; tout au plus sommes-nous capables de dire de quoi ne sont pas constituées la matière et l’énergie noire qui jouent un rôle si prépondérant. On pourrait être tenté de remettre directement en cause les lois de la Relativité Générale qui exigent de si mystérieux constituants et certaines théories alternatives se développent pour tenter de décrire l’évolution de l’Univers sans avoir recours au côté obscur [9]. Néanmoins, la précision du modèle du Big Bang est telle que la plupart des physiciens lui accorde encore leur confiance et continue de scruter les étoiles en espérant parvenir un jour à voir l’invisible.
Références :
[2] M. Aguilar et al. (AMS Collaboration), First Result from the Alpha Magnetic Spectrometer on the International Space Station: Precision Measurement of the Positron Fraction in Primary Cosmic Rays of 0.5–350 GeV, Physical Review Letter, 10.1103/PhysRevLett.110.141102
[3] Trois preuves expérimentales majeures constituent aujourd’hui les piliers du modèle du Big Bang : la composition de la matière ordinaire, la présence du fond diffus cosmologique et la vitesse d’éloignement des étoiles lointaines.
La formule du jour : l’équation d’Einstein
Grand succès de la mécanique Newtonienne, La théorie de la gravitation classique explique comment la force exercée par une masse sur une autre affecte la trajectoire de chacune d’entre elles et permet, entre autre, de comprendre grossièrement comment les planètes du système solaire tournent autour de Soleil. À la fin du XIXe siècle, des observations suffisamment précises ont cependant révélé les limites du modèle, incapable notamment de décrire certains comportements de l’orbite de la planète Mercure tourne autour du Soleil.


Deux approches de la gravitation : Sir Isaac Newton décrit la gravitation en termes de forces exercées par un corps sur un autre (à gauche), Albert Einstein préfère considérer que chaque corps génère une courbure qui affecte la trajectoire des autres.
La théorie de la Relativité Générale, développée par Einstein en 1915, traite les effets de la gravitation par une description géométrique : la présence de masse ou d’énergie déforme localement la courbure de l’espace-temps ; un objet de déplaçant dans cet espace-temps courbé suit alors une trajectoire infléchie par ces déformations. L’un des premiers succès de cette théorie a été de parvenir à résoudre, dès 1916, l’énigme posée par Mercure.
L’équation d’Einstein décrit comment la présence de masse ou d’énergie modifie la courbure de l’espace-temps. Elle s’écrit :

où le terme de gauche décrit la courbure de l’espace-temps en un point, G est la constante universelle de gravitation, c la vitesse de la lumière, Tμν donne la densité de matière et d’énergie au point considéré et Λ décrit l’énergie noire qui s’oppose à la gravitation. Cette formule permet donc de calculer, connaissant la répartition de matière et d’énergie (ie connaissant Tμν ) la façon dont l’espace-temps se déforme (ie de calculer Rμν).
Einstein est donc parvenu non seulement à développer une représentation de la gravitation complètement nouvelle mais aussi à réaliser le tour de force de relier entre elles deux quantités de natures radicalement différentes (la courbure est une notion de géométrie, la densité une notion matérielle). Largement vérifiée expérimentalement, la Relativité Générale est actuellement la théorie de la gravitation la plus développée.
Daniel Suchet