L’actu des sciences - Août 2014

aux éditions

Sous-genres :
  • sciences

Date de parution : août 2014 Inédit
Langue d'origine : Français
Type d'ouvrage : A vos claviers
Titre en vo :

Lire tous les articles concernant

Régulièrement, Daniel Suchet, polytechnicien, doctorant en physique atomique au Laboratoire Kastler Brossel et médiateur scientifique nous fait découvrir un sujet scientifique en lien avec l’actualité. Contexte, résultats et enjeux, c’est l’occasion de creuser dans le détail les découvertes les plus récentes comme les sujets les plus classiques.

Températures négatives : ça chauffe dans les labos !
 
De tout temps, l’homme a toujours connu le théorème de Thales et la seconde loi de Newton. C’est parfois l’impression que donne l’enseignement des sciences, qui présente souvent une discipline figée, consensuelle, où la Vérité est définitivement acquise. En réalité, les sciences sont en perpétuelle évolution et ne progressent que par des remises en question permanentes et un échange soutenu entre chercheurs.
La révolution industrielle offre une très belle illustration du processus. Au début du XIXe siècle, l’émergence de la machine à vapeur bouleverse la société sans apporter de réponse à une question fondamentale : qu’est-ce que la chaleur ? La quête de cette question donne naissance à un nouveau domaine de la physique, la thermodynamique, qui émerge progressivement des réflexions et des désaccords entre des savants, des amateurs de science et des ingénieurs.
La thermodynamique est aujourd’hui enseignée comme toutes les sciences et on pourrait croire l’histoire achevée. Pourtant, des questions restent en suspens et déchaînent des passions. Alors qu’une équipe allemande affirme avoir obtenu une température inférieure au zéro absolu [1], les réactions de la communauté scientifique sont partagées [2-5] et les débats semblent sur le point de tourner à la bagarre générale.
 
Figure 1 : l’attitude saine du doctorant en pleine lecture d’article.
 
L’exécution de l’aurore.
Si le principe des machines à vapeur remonte à l’Antiquité, les premières réalisations de grande envergure datent de la fin du XVIIe siècle. Les améliorations se succèdent pendant deux cents ans et bouleversent les sociétés en rendant possible la révolution industrielle.
La compréhension fondamentale des phénomènes physiques mis à l’œuvre reste longtemps à la traîne derrière les progrès de la technique. La notion de température, au cœur de toutes les réflexions, est particulièrement délicate à définir. L’élaboration de la thermodynamique, la description scientifique des effets de la chaleur, occupe la communauté pendant toute la période.
Plusieurs savants, dont Descartes et Lavoisier [6], ont eu une intuition qui s’est avérée exacte : la température est une mesure de l’agitation des particules.
À l’échelle microscopique, la matière est composée d’atomes, éventuellement assemblés en molécules. Ces particules s’agitent dans tous les sens, se heurtent les unes les autres, rebondissent, repartent dans d’autres directions, en un mouvement chaotique, désordonné. Plus les particules bougent vite, plus on dit que la température est élevée. Quand on dit que l’air d’une pièce est à 20 °C, cela veut dire que les molécules qui le composent bougent dans tous les sens à environ 300m/s. Si les mêmes molécules bougeaient à 150m/s, la température serait d’environ -200 °C. 
De la même manière, les molécules qui composent un solide ou un liquide bougent en permanence plus ou moins librement, vibrant parfois simplement sur place ; la force de leur agitation est mesurée par la température.
Cette image de la température implique qu’il existe une température minimale. Un corps est d’autant plus froid que ses particules bougent peu ; la température la plus basse est donc obtenue lorsque toutes les particules sont immobiles. En effet, comment imaginer des particules plus lentes que des particules immobiles ? 
La température qui correspond à l’immobilité de toutes les particules s’appelle le zéro absolu. Elle a été estimée pour la première fois vers 1702 par Guillaume Amontons et on sait aujourd’hui qu’elle vaut -273.15 °C. 
L’absolu de ce zéro vient de son caractère universel : peu importe les particules qui composent un objet, les conditions de pression extérieure ou tout autre paramètre arbitraire, la température la plus basse sera toujours la même. À l’inverse, l’échelle Celsius repose sur une référence arbitraire : la température de solidification (0 °C) et d’ébullition (100 °C) de l’eau pure sous la pression d’une atmosphère. La communauté scientifique a donc pris l’habitude d’utiliser l’échelle Kelvin, qui compte la température à partir du zéro absolu : 0 Kelvin (0 K) correspond au zéro absolu (-273.15 °C) ; 100 K correspondent à 100 °C au-dessus du zéro absolu (soit -173.15 °C), etc.
Dans cette échelle, la température de la surface du Soleil (6 000 K) n’est que 20 fois plus importante que la température ambiante (20 °C, soit environ 300 K).
Le zéro absolu apparaît en physique comme une limite indépassable. De la même manière que l’on peut toujours multiplier par deux un nombre sans jamais atteindre et dépasser l’infini, on peut toujours diviser la vitesse des particules sans jamais les figer complètement. À l’heure actuelle, le record des températures les plus basses est établi par l’équipe de Wolfgang Ketterle au MIT [7] à 500 picoKelvins, soit un demi milliardième de degré au-dessus du zéro absolu ; une température un million de millions de fois plus froide que la température ambiante.
 
Température et entropie.
Dans les années 1950, Purcell, Pound [8] et Ramsey [9] envisagent cependant l’existence de températures inférieures au zéro absolu. Leur proposition repose sur une définition plus fine de la température, élaborée au cours du XIXe siècle et qui fait appel au concept d’entropie.
Lorsqu’on décrit une assemblée de particules (par exemple l’air de la pièce), on utilise des grandeurs d’ensemble : la température, la pression, le volume, etc. Ces grandeurs ne décrivent pas le système de manière unique : si une des particules avait une position légèrement différente, la température, la pression et le volume de l’ensemble resteraient inchangés (figure 2). Il en résulte un certain désordre : le système peut être dans un grand nombre d’états différents, mais équivalents.
 
Figure 2 : Deux configurations équivalentes d’un même gaz. Le gaz présente la même température, la même pression et le même volume dans les deux cas.
 
L’entropie est une grandeur physique qui compte ce désordre. Plus le système possède de configurations différentes, plus il est désordonné, plus son entropie est élevée. 
La notion d’entropie a été introduite par Rudolf Clausius en 1865 pour caractériser l’évolution d’un système [10] : lors d’une évolution spontanée, le désordre a toujours tendance à augmenter et, s’il est possible d’extraire une partie du désordre vers l’extérieur du système, il est impossible de le détruire.
On peut appliquer ce raisonnement à une bibliothèque. Imaginons une bibliothèque initialement rangée (une seule configuration possible, entropie minimale). Lorsqu’un livre est emprunté et remis à une place aléatoire, le nombre de configurations envisageables augmente énormément, et l’entropie de la bibliothèque avec. Même si aucun lecteur ne fréquente la bibliothèque, le désordre augmente : la poussière s’accumule, les livres s’abîment… Il est possible de nettoyer et de ranger les livres pour revenir à la situation initiale, mais cette action demande une intervention extérieure. Lorsque le bibliothécaire s’occupe des rayonnages, il bouscule l’air de la pièce, dépense des calories, laisse derrière lui une traînée de cosses de cacahuètes… L’entropie de la bibliothèque peut bien diminuer ; l’entropie totale ne peut qu’augmenter.
 
Figure 3 : Mesure du désordre, l’entropie d’un système fermé augmente à chaque action. Le simple fait de parler agite les molécules d’air, génère des processus biologiques complexes et dissipe de l’énergie.
L’entropie représente une source inépuisable d’humour pour les physiciens. [11]
 
La définition la plus rigoureuse de la température repose sur le lien entre entropie et énergie. Lorsqu’on augmente l’énergie d’un système, on modifie également le nombre d’états dans lesquels il peut se trouver. La température est définie comme la variation de l’énergie avec le désordre. Si un peu d’énergie supplémentaire augmente beaucoup le désordre du système, sa température est basse. S’il faut rajouter beaucoup d’énergie au système pour changer significativement son désordre, sa température est élevée.
Cette approche est bien compatible avec la définition cinétique envisagée par Descartes et Lavoisier. Imaginons une particule dans une boite, comme sur la figure 2. Si la particule ne bouge quasiment pas, sa température cinétique, mesure de son agitation, est basse. L’entropie du système est également basse : les différentes configurations correspondent essentiellement aux positions possibles de la particule dans la boite. Si on accélère un tout petit peu la particule, le nombre de configurations possibles augmente énormément : la particule peut aller dans toutes les directions, se cogner contre les parois… Une petite variation d’énergie correspond bien à une grande augmentation d’entropie. À l’inverse, si la particule va déjà à toute vitesse, la température cinétique est élevée. Dans ce cas, la même petite accélération ne change pas radicalement les états accessibles, puisque la particule peut déjà partir dans tous les sens. La même augmentation d’énergie correspond donc à une augmentation d’entropie beaucoup plus faible que précédemment.
 
En dessous du zéro absolu
Cette définition de la température permet d’envisager des températures absolues négatives, virtuellement inférieures au zéro absolu. Il suffit de considérer un système pour lequel une augmentation d’énergie diminue le désordre (figure 4).
 
Figure 4 : un système à température négative. 
À gauche : un système à température positive. Les états de plus haute énergie sont plus nombreux. Ainsi, ce système avec une énergie E2 a deux configurations possibles et trois avec l’énergie E3. Augmenter l’énergie du système de E2 à E3 augmente le nombre d’états accessibles et donc le désordre du système.
 À droite : à l’inverse, ce système présente une température négative. Le passage de E2 à E3 diminue le nombre d’états accessibles au système. Une augmentation d’énergie se traduit donc par une diminution de l’entropie du système, ce qui correspond bien à une température négative.
 
Il faut bien noter ici que les températures négatives n’ont rien à voir avec un réel refroidissement de la matière : il ne s’agit pas de diminuer la température jusqu’à atteindre et dépasser le zéro absolu ! Les températures négatives ne sont accessibles qu’à certains systèmes correctement conçus qui présentent des configurations particulières. Il n’est pas question d’amener sous le zéro absolu l’air ambiant ou un cube de glace.
L’étude des températures négatives présente de nombreux intérêts : la thermodynamique leur prête toutes sortes de propriétés remarquables. Si un corps chaud est mis en contact avec un corps froid, la chaleur va normalement du premier vers le second. La situation est inversée lorsque la température du corps froid est inférieure au zéro absolu : la chaleur est alors donnée par le second au premier. Tout se passe comme si les températures négatives étaient plus élevées que n’importe quelle température positive ! Indépendamment d’éventuelles applications, ce genre de situation physique bizarre attire facilement l’attention des physiciens.
 
Bagarre générale
En novembre 2012, l’équipe d’Immanuel Bloch à Munich présente dans la prestigieuse revue Science des résultats expérimentaux attestant de températures négatives [1]. En réponse à cet article, Jörn Dunkel et Stefan Hilbert publient quelques mois plus tard dans la non moins prestigieuse revue Nature une longue chronique contestant la pertinence scientifique des températures négatives et critiquant l’analyse des résultats menée par l’équipe de Bloch [2]. D’après eux, l’approche habituelle utilise une mauvaise définition de l’entropie. Par conséquent, la variation du désordre due à l’augmentation de l’énergie du système, c’est-à-dire la température, est mal estimée. Avec une meilleure définition de l’entropie, attribuée à Gibbs et non à Boltzmann, les températures négatives disparaissent. 
 
Figure 5 : Sur la tombe de Ludwig Boltzmann (1844 - 1906) à Vienne, on peut lire la formule habituellement utilisée pour définir l’entropie S.
 
À leur crédit, il faut bien reconnaître que l’entropie a une réputation de concept difficile. Le père de la théorie de l’information, Claude Shannon, raconte être allé demander conseil au mathématicien John von Neumann pour nommer une fonction d’incertitude qui avait émergé de sa théorie. Von Neumann aurait répondu [12] :
« Vous devriez appeler [votre fonction d’incertitude] « entropie », pour deux raisons. Tout d’abord, votre fonction d’incertitude est déjà utilisée sous ce nom en physique statistique, elle a donc déjà un nom. D’autre part, personne ne sait vraiment ce qu’est l’entropie, donc vous aurez l’avantage dans les débats. »
La réponse de Dunkel et Stefan est cependant mal passée dans la communauté. Au début du mois de mars, Daan Frenkel et Patrick Warren ont rédigé un article [3] critiquant leur approche et mettant en avant les défauts de l’entropie de Gibbs. Et pour ne pas perdre une si belle occasion, Frenkel et Warren profitent des notes de bas de page pour suggérer que Dunkel et Stefan ne font que redécouvrir une analyse déjà menée en 1991.
Dunkel et Stefan ont publié à leur tour une critique sur cette critique de leur critique [4]. Visiblement fâchés, ils entament leur argumentaire d’une page par un résumé rapide :
« Dans leur article [arXiv:1403.4299v1], Frenkel et Warren prétendent que la température de Gibbs ne caractérise pas correctement l’équilibre thermique d’un système. Nous soulignons ici les principales failles de leur argumentation. »
Et pour rendre coup pour coup, Dunkel et Stefan ne citent même pas l’article de Frenkel et Warren qu’ils critiquent, non mais !
Décidée à contribuer à l’augmentation d’entropie, l’équipe d’Immanuel Bloch s’est relancée dans la bagarre il y a quelques semaines, en répondant à son tour à Dunkel et Stefan [5] pour défendre leurs résultats. Leur article se présente comme une liste des problèmes soulevés par l’utilisation de l’entropie de Gibbs. Et pour faire bonne figure, les auteurs se sont sentis obligés de souligner que la définition de l’entropie utilisée par Dunkel et Stefan serait en réalité due à Paul Hertz et non à Gibbs. Ça ne change pas la définition, mais sait-on jamais.
Ces échanges prennent parfois une forme agressive mais ils attestent de la dynamique du raisonnement scientifique. Petit à petit, le débat met en évidence les lacunes de chacune des approches et permet à l’ensemble de la communauté de s’intéresser à la question. On peut espérer que cette opposition parfois brutale d’idées permette à des nouvelles approches d’émerger et d’approcher davantage du réel.
En attendant, s’ils ne tranchent pas le problème de l’existence de températures négatives, les résultats expérimentaux de l’équipe de Bloch restent une prouesse technique qui ne peut que donner envie de s’intéresser à la question.
 
Figure 6 : distribution d’atomes dans un seul et même système avec une température positive (à gauche) ou négative (à droite) [1]. Indépendamment de la pertinence thermodynamique du concept de température négative, les résultats expérimentaux prouvent l’existence de deux régimes distincts.
 
 
Références
[1] S. Braun, J.P. Ronzheimer, M. Schreiber, S.S. Hodgman, T. Rom, I. Bloch, and U. Schneider, Negative absolute temperature for motional degrees of freedom, Science 339(6115), 52–55 (2013) (lien arxiv)
[2] J. Dunkel and S. Hilbert. Consistent thermostatistics forbids negative absolute temperatures, Nature Physics 10(1), 67–72 (2013). (lien arxiv)
[3] D. Frenkel and P.B. Warren. Gibbs, Boltzmann, and negative temperatures, arXiv:1403.4299v2, (2014).
Voir la note 11 : “Note that this rediscovers arguments given in V. Berdichevsky, I. Kunin, and F. Hussain, Negative temperature of vortex motion, Phys. Rev. A 43, 2050-2051 (1991).”
[4] J. Dunkel and S. Hilbert. Reply to Frenkel and Warren arXiv:1403.4299v1 (2014)
[5] Ulrich Schneider, Stephan Mandt, Akos Rapp, Simon Braun, Hendrik Weimer, Immanuel Bloch, Achim Rosch, Comment on “Consistent thermostatistics forbids negative absolute temperatures” arXiv.org 1407.4127v1, (2014)
[6] « Dans un corps échauffé, ce sont des particules animées d’un mouvement peu ample, mais très rapide ; de ce mouvement, un corps donné, porté à un degré de chaleur déterminé, contient une certaine quantité ; cette quantité de mouvement calorifique dans un corps chaud, c’est la quantité de chaleur qu’il renferme. »
Descartes cité par Pierre Duhem, L’évolution de la mécanique et autres textes, Vrin, Mathesis, 1992, p 7
« On sait que les corps, même les denses, sont remplis d’un grand nombre de pores ou de petits vides, dont le volume peut surpasser considérablement celui de la matière qu’ils renferment ; ces espaces vides laissent à leurs parties insensibles la liberté d’osciller dans tous les sens. C’est ce mouvement qui constitue la chaleur. »
Antoine Lavoisier, Mémoire sur la chaleur, 1783
Note : Dans la compréhension moderne de la thermodynamique, la notion de chaleur utilisée par Descartes et Lavoisier décrit en réalité la température du corps. Il faut attendre Sadi Carnot et ses Réflexions sur les puissances motrices du feu de 1824 pour que le concept de chaleur soit correctement défini.
[7] A. E. Leanhardt,, T. A. Pasquini, M. Saba, A. Schirotzek, Y. Shin, D. Kielpinski, D. E. Pritchard, W. Ketterle, Cooling Bose-Einstein Condensates Below 500 Picokelvin, Science, 301 no. 5639 pp. 1513-1515 (2003)
[8] E. M. Purcell and R. V. Pound, A Nuclear Spin System at Negative Temperature, Phys. Rev. 81, 279 (1951)
[9] N. Ramsey, Thermodynamics and Statistical Mechanics at Negative Absolute Temperatures, Physical Review, vol. 103, no 1,‎ 1956-07-01, p. 20–28 (1956)
[10] « Je préfère emprunter aux langues anciennes les noms des quantités scientifiques importantes, afin qu’ils puissent rester les mêmes dans toutes les langues vivantes ; je proposerai donc d’appeler la quantité S l’entropie du corps, d’après le mot grec « τροπη » (tropos), « transformation ». C’est à dessein que j’ai formé ce mot entropie, de manière qu’il se rapproche autant que possible du mot énergie ; car ces deux quantités ont une telle analogie dans leur signification physique qu’une analogie de dénomination m’a paru utile. » 
Cité par Jean-Claude Boudenot, Histoire de la physique et des physiciens, Ellipse, 2001
[12] Cité par M. Tribus, E.C. McIrvine, "Energy and information", Scientific American, 224 (1971).
 

 
La formule du jour : la température cinétique
 
L’approche cinétique de la température, si elle manque parfois de finesse, permet une compréhension qualitative importante. C’est pour cette raison qu’elle est présentée en introduction à la thermodynamique dans l’enseignement universitaire.
Dans cette définition, la température d’un gaz parfait est reliée à l’agitation des particules par la relation
 
 
où m est la masse des particules, u leur vitesse moyenne et kb = 1.38 10-23 J/K est la constante de Boltzmann.
Un gaz parfait est un ensemble de particules toutes identiques, sans interactions, supposées ponctuelles et sans structure interne.
On retrouve ici l’idée du 0 absolu : si la vitesse des particules est nulle (u=0), la température est également nulle. Par ailleurs, le terme de droite étant positif ou nul, la température ne saurait être inférieure à zéro.
Cette formule utilise le carré de la vitesse moyenne. Si les particules vont deux fois plus vite, la température est donc multipliée par 4 ; des particules dix fois plus rapides correspondent à une température cent fois plus importante, etc.
On pourrait simplifier les facteurs ½ présents à gauche et à droite de l’équation. La coutume veut néanmoins qu’ils soient maintenus, car leur origine est différente. À droite, l’expression est caractéristique de l’énergie cinétique, qui rend compte du mouvement d’un corps. La définition de l’énergie cinétique fait naturellement apparaître ce facteur ½. À gauche, il faut en réalité lire « 3 fois ½ » plutôt que « 3/2 ». Un théorème fondamental assure l’équipartition de l’énergie : si un système possède différents degrés de liberté, il aura tendance à répartir son énergie totale. Chaque degré de liberté représente alors une énergie kbT/2. Dans un gaz parfait, les particules ont trois degrés de liberté : elles peuvent se déplacer dans la direction haut / bas, gauche / droite et avant / arrière. Leur énergie est donc bien 3kbT/2.
 
Daniel Suchet
 

Retrouvez tous les articles de Daniel Suchet.