- le  
L'actu des sciences - Septembre 2013
Commenter

L'actu des sciences - Septembre 2013

De la guerre des étoiles à la bataille du froid
 
L’élégance de la physique tient peut-être à son universalité : quelques symboles mathématiques, assemblés en courtes équations, semblent pouvoir décrire avec précision un grand nombre de phénomènes en apparence distincts. La nature du système étudié importe peu : deux problèmes différents décrits par les mêmes équations auront le même comportement. Par exemple, lorsqu’on cherche à décrire la chute libre d’un objet, on peut se contenter de le définir par sa masse et sa forme ; deux objets différents mais de masse et de forme identiques tomberont de la même manière. La force des analogies permet parfois de faire des liens entre des systèmes complètement différents : l’oscillation d’un poids attaché à un ressort est identique à l’oscillation des charges électriques dans un circuit ; la diffusion d’une goutte d’encre dans un verre d’eau ressemble à la diffusion de la chaleur dans une pièce.
Pour qui sait les utiliser, ces analogies constituent un outil d’analyse extrêmement puissant : plutôt que de travailler sur un système difficile à manipuler, on peut se concentrer sur un système plus maîtrisable mais néanmoins décrit par les mêmes équations et obtenir les mêmes informations. Dans ce contexte, certaines expériences tentent d’utiliser des atomes refroidis à quelques milliardièmes de degrés Celsius au-dessus du zéro absolu pour reproduire le comportement de quasiment n’importe quel système. Certaines propositions envisagent même la possibilité d’utiliser ces expériences pour étudier le comportement des trous noirs [1-5]…
 
Feynman et le simulateur quantique universel
L’idée d’utiliser un système maîtrisable pour étudier un problème analogue complexe n’est pas récente. On en trouve une première illustration à Prague dès 1410 (figure 1 a), sur la célèbre horloge astronomique qui indique la position de la Lune, du Soleil et des constellations du Zodiac. Plutôt que de calculer le mouvement des astres dans le ciel, tâche impossible sans les lois de la gravitation de 1666, l’horloger Mikuláš z Kadaně entraîne chaque corps céleste représenté sur l’horloge avec un engrenage bien choisi, de manière à ce que l’évolution des astres sur l’horloge soit la même que celle des astres dans le ciel.
 
  
Figure 1 : (à gauche) L’horloge de Prague estime la position des constellations du Zodiac dans le ciel de façon purement mécanique, sans calculs. (à droite) Vue d’artiste de la machine de Turing, un simulateur extrêmement simple et néanmoins capable d’imiter n’importe quel ordinateur.
 
L’horloge de Prague a cependant un défaut : elle ne peut reproduire que ce pour quoi elle a été conçue. Impossible en effet de l’utiliser pour déterminer la position d’un astre qui n’est pas déjà représenté ! Pour s’affranchir de cette limite, on peut cependant imaginer une machine susceptible d’être réglée pour simuler un grand nombre de situations, sans être restreinte par sa construction à un unique problème donné.
L’exemple emblématique de cette généralisation est sans doute dû à Alan Turing, qui propose en 1936 [6] une machine imaginaire dotée d’une tête de lecture et d’écriture, d’une bande de papier sur laquelle elle peut lire et écrire des 0 et des 1, d’une liste d’instructions qui lui indique quoi faire et d’un registre d’état qui lui rappelle son positionnement (figure 1 b). En dépit de sa simplicité, une telle machine est extrêmement puissante et on peut montrer qu’elle est capable d’exécuter un grand nombre d’algorithmes, c’est-à-dire de suites logiques d’opérations (« lit la bande, puis déplace-toi vers la droite, recopie le numéro, déplace-toi à droite… »). Tous nos appareils informatiques, des ordinateurs aux supercalculateurs les plus modernes, ne savent pas faire d’autres opérations que celles de la machine de Turing ; ils peuvent simplement les réaliser plus vite et plus efficacement. L’intérêt principal de la proposition de Turing vient de son universalité : dans son article, Turing a montré que sa machine pouvait être réglée pour reproduire le comportement de n’importe quelle autre machine limitée aux mêmes algorithmes ; en d’autres termes, la machine de Turing peut être configurée pour réaliser les mêmes opérations que les microprocesseurs les plus perfectionnés, indépendamment de leur fonctionnement interne : elle peut être réglée pour simuler n’importe quel ordinateur.
En 1982, l’idole des physiciens Richard Feynman s’inspire des idées de Turing [7] et propose d’appliquer ce principe à l’étude de la physique en général, et de la mécanique quantique en particulier. Lors d’une conférence devenue mythique, il imagine un simulateur quantique universel, une machine susceptible d’être ajustée pour simuler de n’importe quel système physique qu’on souhaite étudier. 
 
Figure 2 : Partant d’une situation réelle (problème), le physicien élabore une théorie en ne tenant compte que de certains paramètres. Pour tester son modèle, il doit comparer les prédictions issues de sa théorie comportement du système initial.
 
La proposition de Feynman a une portée particulièrement large et s’inscrit dans la démarche même d’élaboration des théories physiques (figure 2). Le monde réel est horriblement compliqué et le nombre de facteurs intervenant dans un problème est quasiment infini. Pour élaborer une théorie, le physicien ne retient que quelques-uns de ces paramètres et néglige les autres ; il établit ainsi un modèle simplifié qu’il espère néanmoins fidèle à la réalité. Pour tester sa théorie, le physicien doit s’assurer que le système décrit par son modèle simplifié se comporte effectivement comme le système réel qu’il veut décrire. Pour ce faire, il peut calculer certaines propriétés à partir de sa théorie puis comparer ces prédictions aux réactions réelles du système : réagit-il comme prévu à tels ou tels stimuli ? Se déforme-t-il comme l’affirment les calculs ? Malheureusement, dans la plupart des cas, les calculs sont complexes au point d’en être irréalisables, même par ordinateur. C’est là que l’idée de Feynman prend toute sa dimension : au lieu de mener ces calculs, on peut simuler les propriétés du modèle en réglant la machine pour qu’elle suive exactement la théorie. Si le comportement du simulateur ressemble au comportement du système réel, c’est que la théorie décrit correctement son objet d’étude ; à l’inverse, si le simulateur ne se comporte pas du tout comme le système réel, c’est qu’il manque dans la théorie des éléments cruciaux. 
 
Les atomes froids, candidats prometteurs
En 1982, la proposition de Feynman est purement virtuelle et lui-même n’envisage pas de dispositif matériel susceptible de jouer le rôle de simulateur quantique universel. Depuis quelques années cependant, la maîtrise croissante de la physique atomique rend possibles des expériences qui s’en approchent de plus en plus.
Il est aujourd’hui possible de piéger par laser quelques millions d’atomes et de les refroidir jusqu’à une poignée de milliardièmes de degrés Celsius au-dessus du zéro absolu : on parle d’atomes ultrafroids. À ces échelles de température, ces atomes forment un système particulièrement ajustable : on peut non seulement dessiner le paysage dans lequel ils évoluent avec des faisceaux laser mais également ajuster leurs interactions avec un champ magnétique et les forcer ainsi à s’attirer ou à se repousser les uns les autres, plus ou moins fortement.
 
 
Figure 3 : (à gauche) Dans un métal, les électrons (en rouge) évoluent dans un réseau périodique d’ions (en bleu) et interagissent entre eux. (à droite) De manière analogue, on peut placer des atomes (en rouge) dans un réseau optique (en bleu) et ajuster leurs interactions pour qu’elles soient identiques à celles des électrons.
Vues d’artiste par Germain Morisseau.
 
La plupart des expériences d’atomes froids se concentrent sur la simulation de problèmes issus de la physique dite « de la matière condensée », qui étudie les matériaux à l’échelle microscopique et en particulier les métaux. Dans un métal, les électrons évoluent dans un réseau d’ions et interagissent également les uns avec les autres. Les équations décrivant un tel système sont simples à écrire, mais tellement difficiles à résoudre qu’elles rendent indispensables un grand nombre de simplifications. Plutôt que de risquer de perdre des informations capitales lors de ces simplifications, on peut l’étudier par simulation (figure 3) : les atomes froids de l’expérience jouent le rôle des électrons dans le métal ; à l’aide de faisceaux laser, on peut créer un réseau optique qui ressemble au réseau créé par les ions ; avec un champ magnétique, on peut régler les interactions entre les atomes pour qu’elles soient analogues à celles qui s’exercent entre les électrons. On reproduit ainsi un système parfaitement analogue au problème initial et néanmoins maîtrisable. Son ajustabilité permet par ailleurs de jouer sur chacun des paramètres du modèle pour étudier son influence sur l’ensemble du problème. Par exemple, on peut s’en servir pour comprendre les mécanismes à l’œuvre dans la supraconductivité de certains métaux (voir l’article de février 2012), qui conduisent le courant électrique sans aucune perte. Le comportement des atomes froids placés dans un contexte analogue à celui des électrons dans le métal montre l’importance des interactions entre particules [8] : avec des interactions faiblement attractives, les atomes forment des structures caractéristiques de la supraconductivité tandis que, si les interactions deviennent plus fortes ou répulsives, ces structures disparaissent.
L’enjeu actuel est de trouver comment reproduire avec ces atomes froids le plus grand nombre de situations possibles. Des propositions suggèrent des dispositifs astucieux pour imiter l’effet d’une interaction électromagnétique [9], ou des interactions faibles et fortes qui agissent au sein des noyaux atomiques. À terme, si ces techniques s’avèrent utilisables, elles permettront d’utiliser ces expériences pour appréhender des problèmes extrêmement divers et de reproduire en laboratoire avec des atomes froids le comportement d’un film de graphène ou d’une étoile à neutrons. Il y a à peine plus d’un an, l’équipe d’Immanuel Bloch à Munich avait observé l’analogue du Boson de Higgs dans une expérience utilisant du Rubidium [10], démontrant ainsi, quelques semaines avant l’annonce du CERN, que les équations prédites par la physique des particules, si elles s’appliquent effectivement à notre Univers, impliquaient bel et bien l’existence de la fameuse particule
 
Des trous noirs ultrafroids
Des propriétés surprenantes apparaissent à très basse température : lorsqu’ils sont suffisamment froids, certains atomes forment un fluide dépourvu de toute viscosité, capable de s’écouler sans la moindre résistance ni le moindre frottement ; on parle alors de superfluide [11]. La propagation du son dans un superfluide est analogue à la propagation de la lumière dans le vide. Les superfluides sont donc particulièrement bien adaptés à la simulation des phénomènes lumineux. En 1981, le Canadien Wiliam Unruh a proposé une application extrêmement séduisante de cette analogie [1] en suggérant d’utiliser un superfluide pour étudier les trous noirs. À proximité d’un trou noir, en deçà d’une limite appelée horizon, l’attraction gravitationnelle est si intense que la lumière ne peut plus s’échapper et s’approche inexorablement du centre de l’astre sans pouvoir repartir ; l’astre apparaît donc noir car il ne rayonne aucune lumière. De la même manière, si un superfluide s’écoule à une vitesse supérieure à la vitesse de propagation du son, les ondes sonores sont incapables de remonter le flot ; en formant un tourbillon, un superfluide prend une forme très proche de celle d’un trou noir : les ondes sonores qui s’approchent trop près du tourbillon se peuvent plus s’en échapper et sont irrémédiablement entraînées vers le centre. Un tourbillon supersonique forme donc un trou muet, capable d’absorber tous les sons sans en émettre aucun.
 
 
Figure 4 : (à gauche) Un trou noir déforme l’espace-temps à cause de sa masse. Au niveau de l’horizon, la courbure devient si importante que même la lumière ne peut plus faire demi-tour. (à droite) Dans un superfluide, un tourbillon peut générer un effet analogue sur les ondes sonores qui, entraînées dans l’écoulement, ne parviennent plus à repartir.
 
Spéculation théorique en 1981, la proposition d’Unruh intéresse plusieurs équipes. En particulier, l’Autrichien Peter Zoller a proposé en 2001 une méthode expérimentale susceptible de réaliser effectivement un trou muet dans un superfluide d’atomes ultrafroids [2]. Cette méthode a été mise en œuvre avec succès par l’équipe de Jeff Steinhauer en Israël en 2010 [3] et, depuis, d’autres méthodes ont été suggérées [4] dont certaines très récemment [5].
L’intérêt suscité par ces expériences vient d’un phénomène étrange prédit par le Britannique Stephen Hawking en 1975 : en réalité, un trou noir n’est pas vraiment noir ! Il émet spontanément un rayonnement de particules, exactement comme un clou chauffé au rouge émet de la lumière. Ce rayonnement, appelé rayonnement Hawking, provient des fluctuations quantiques du vide : même en l’absence de toute source extérieure, même dans le vide le plus complet, il existe une probabilité très faible mais non nulle qu’une particule et son antiparticule apparaissent en empruntant de l’énergie au vide. En temps normal, particule et antiparticule s’annihilent et l’énergie est rendue au vide, comme un emprunt à la banque remboursé immédiatement. Néanmoins, à proximité d’un trou noir, il peut arriver qu’une des deux particules s’approche un peu trop de l’astre, dépasse l’horizon et soit capturée par l’attraction gravitationnelle (voir figure 5). L’autre particule, restée au-delà de l’horizon est alors libre de partir ; vu de loin, tout se passe comme si le trou noir avait émis cette particule. Ainsi, un trou noir émet un rayonnement continu de matière : on dit qu’il s’évapore. Incidemment, cette évaporation limite sa durée de vie : à force d’émettre de la matière, le trou noir se vide et finit par disparaître. L’évaporation est d’autant plus intense que le trou noir est petit et, si un trou noir semblable à celui situé au centre de notre galaxie s’évapore en un temps infiniment long (les calculs donnent 1057 fois l’âge de l’Univers, soit un 1 suivi de 57 zéros), les trous noirs les plus légers sont censés disparaître en moins de quelques nanosecondes. 
 
Figure 5 : Le rayonnement de particules prédit par Hawking est dû à la présence d’un horizon. Des paires de particules générées aléatoirement peuvent se retrouver séparées par l’horizon  au lieu de s’annihiler rapidement. La particule piégée disparaît dans le trou noir tandis que la particule libre s’échappe.
 
Cet effet n’a jamais été vu dans la nature car les trous noirs suffisamment massifs pour être observés n’émettent qu’un minuscule rayonnement. En l’absence d’observations pour tester la théorie, l’analyse d’un trou noir sonique s’avère donc particulièrement intéressant : les superfluides présentent en effet des fluctuations quantiques analogues à celles du vide et on peut espérer voir apparaître, à l’horizon d’un trou muet, un rayonnement acoustique semblable au rayonnement Hawking. Cependant, à l’heure actuelle, les superfluides obtenus en laboratoire sont encore trop chauds pour laisser transparaître le rayonnement Hawking, s’il existe ; il faudrait atteindre des températures inférieures au millième de milliardième de degré Celsius au-dessus du zéro absolu pour obtenir un signal suffisamment clair et ne pas subir le brouillage du bruit thermique. La guerre pour la compréhension des étoiles continue, et passera peut-être par la bataille du froid !
 
Références : 
[1] W. G. Unruh, Dumb Holes and the Effects of High Frequencies on Black Hole Evaporation, arXiv:gr-qc/9409008
[2] L. J. Garay, J. R. Anglin, J. I. Cirac, P. Zoller, Sonic black holes in dilute Bose-Einstein condensates, arXiv:gr-qc/0005131v2
[3] Oren Lahav, Amir Itah, Alex Blumkin, Carmit Gordon, Shahar Rinott, Alona Zayats, Jeff Steinhauer, Realization of a sonic black hole analogue in a Bose-Einstein condensate, arXiv:0906.1337
[4] Scott J Robertson,The theory of Hawking radiation in laboratory analogues, J. Phys. B: At. Mol. Opt. Phys. 45 (2012) 163001
[5] P.-É. Larré, N. Pavloff, Hawking radiation in a two-component Bose-Einstein condensate, arXiv:1307.2843v1
[6] Alan Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, Proc. London Math. Soc., 2e série, vol. 42, 1937, p. 230-265
 
[7] Richard Feynman, Simulating Physics with Computers, International Journal of Theoretical Physics 21, 1982
[8] T. Bourdel, L. Khaykovich, J. Cubizolles, J. Zhang, F. Chevy, M. Teichmann, L. Tarruel, S.J.J.M.F. Kokkelmans and C. Salomon, Experimental Study of the BEC-BCS Crossover Region in Lithium 6, Phys. Rev. Lett. 93, 050401 (2004)
[9] I. Bloch, J. Dalibard, and S. Nascimbène, Quantum simulations with ultracold quantum gases, Nature Physics 8, 267 (2012)
[10] Manuel Endres, Takeshi Fukuhara, David Pekker, Marc Cheneau, Peter Schauß, Christian Gross, Eugene Demler, Stefan Kuhr, Immanuel Bloch, The `Higgs' Amplitude Mode at the Two-Dimensional Superfluid-Mott Insulator Transition, arXiv:1204.5183
[11] Pour voir le comportement bizarroïde d’un superfluide : http://www.youtube.com/watch?v=2Z6UJbwxBZI
 

 
La formule du jour : La longueur d’onde de de Broglie
En 1924, le Français Louis de Broglie (prononcé /dəbʁɔj/) pose les bases de la mécanique ondulatoire en proposant une idée révolutionnaire : plutôt que de décrire les particules comme des petites billes, suivant l’image habituellement donnée, de Broglie propose d’utiliser des ondes. Ces ondes de matière, qui deviendront bientôt le fer de lance de la mécanique quantique, ne s’étalent pas jusqu’à l’infini : l’onde d’une particule ne prend de valeurs significatives que dans un tout petit volume, là où on a une chance d’observer effectivement la particule.
 
On note λ la taille caractéristique de l’extension spatiale de l’onde, qu’on appelle Longueur d’onde de de Broglie. On peut montrer que cette longueur d’onde vaut
  
 
où m est la masse des particules, T leur température, h barre est la constante de Planck réduite (soit 6.62 1034 Joule par Hertz) et kb est la constante de Boltzman (soit 1.31 10-23 Joule par Kelvin). Ainsi, plus les particules sont légères ou plus elles sont froides et plus la longueur d’onde de de Broglie est grande ; autrement dit, les ondes qui décrivent les particules sont de plus en plus étalées. À température ambiante, la longueur d’onde de de Broglie des molécules d’air est d’environ un centième de milliardième de mètre.
Une autre dimension caractéristique intervient lorsqu’on veut décrire un ensemble de particules : la distance moyenne entre deux particules, notée d.
 
 
Tant que la distance entre particules est grande devant la longueur d’onde de de Broglie, la physique classique qui assimile les particules à des billes est crédible. En revanche, si la longueur d’onde de de Broglie devient plus grande que la distance entre particules, les différentes ondes se superposent, s’influencent les unes les autres et une description quantique est indispensable. Pour des électrons dans un métal à température ambiante, la longueur d’onde de de Broglie est environ dix fois plus grande que la distance entre électrons. Pour pouvoir simuler cette situation avec des atomes, il se placer dans un rapport analogue ; mais compte tenu de la masse des atomes (10 000 fois celle des électrons) et de leur faible densité dans un gaz (distance entre particules 10 000 fois plus grande), il faut atteindre des températures extrêmement basses, de l’ordre du nanoKelvin, pour espérer imiter le régime quantique.
 
Daniel Suchet

Genres / Mots-clés

Partager cet article

Qu'en pensez-vous ?