L’actu des sciences - Juin 2013

aux éditions
Genre : Actes de colloque
Sous-genres :
  • sciences

Date de parution : juin 2013 Inédit
Langue d'origine : Français
Type d'ouvrage :
Titre en vo :

Lire tous les articles concernant

Régulièrement, Daniel Suchet, polytechnicien, doctorant en physique atomique au Laboratoire Kastler Brossel et médiateur scientifique au Palais de la Découverte, nous fait découvrir un sujet scientifique en lien avec l’actualité.

L’épopée des atomes
 
2013 marque un anniversaire important de la physique atomique (ie la physique qui s’intéresse aux atomes, par opposition à la physique nucléaire, qui s’intéresse uniquement aux noyaux) : il y a cent ans, en avril 1913, Niels Bohr proposait un nouveau modèle pour décrire les atomes et posait ainsi une des premières pierres de la physique atomique moderne en ouvrant la voie à l’interprétation quantique de la matière.
Les progrès effectués au cours de ces cent dernières années ont été fulgurants. Alors qu’au début du XIXe siècle l’existence même des atomes était une question ouverte, les technologies actuelles nous permettent non seulement de voir individuellement les atomes mais aussi de les manipuler. Dans ce domaine, l’équipe d’IBM à San Jose (Californie) a accompli un véritable exploit : à l’aide d’un microscope à effet tunnel, Andreas Heinrich et ses collaborateurs ont réalisé « un garçon et son atome », une animation d’une minute trente en pixel art atomique dont la scène ne dépasse pas 10 milliardièmes de mètre [1] !
Si ce film a d’ores et déjà raflé l’oscar du plus petit film du monde, il a plus qu’une vocation artistique : il démontre également que les applications technologiques promises par la maîtrise des échelles nanométriques migrent progressivement du domaine de la science-fiction à celui de la science dure.
 
S’il te plaît, dessine-moi un atome !
La bataille entre les défenseurs de l’atome et ses détracteurs débute à l’Antiquité lorsque les philosophes s’intéressent à la composition de la matière. Pour Épicure et Lucrèce après lui, le monde est constitué de grains insécables, atomiques (a tomos signifie littéralement « qui ne peut pas être coupé ») qui évoluent de manière erratique, se heurtent les uns aux autres, s’assemblent parfois et finissent par s’agglomérer au point de former le monde qui nous entoure. Cette approche non déterministe est particulièrement réfutée par Aristote, qui préfère voir dans la matière la manifestation de quatre substances primordiales (l’eau, le feu, l’air et la terre). L’influence de l’école aristotélicienne est telle que les théories atomistes disparaissent de l’histoire de la pensée jusqu’au début du XIXe siècle.
L’idée d’atome réapparaît dans les années 1800 de manière purement phénoménologique : pour décrire certaines expériences chimiques, il est plus facile aux savants d’avoir recours à des grains atomiques de matière (ou à des assemblages d’atomes, des molécules) plutôt qu’aux substances alchimiques héritées de la pensée d’Aristote. Malgré ses succès, l’atome reste l’objet de vives controverses : Jean-Baptiste Dumas, professeur au Collège de France, déclare dans une de ses leçons en 1836 : « Si j’en étais le maître, j’effacerais le mot atome de la science » ; Marcellin Berthelot, chimiste avant d’être ministre de la IIIe République, reconnaît une certaine utilité au modèle atomique mais « ne veu[t] pas que l’on croit à l’existence réelle des atomes comme les chrétiens croient à la présence réelle de Jésus Christ dans l’hostie consacrée ». 
La première preuve irréfutable de l’existence de l’atome vient de la rencontre entre les observations d’un botaniste anglais, Robert Brown, les idées d’un théoricien suisse, Albert Einstein et la précision expérimentale d’un physicien français, Jean Perrin : Brown avait remarqué vers 1828 le mouvement chaotique de grains de pollen en suspension à la surface de l’eau ; Einstein a interprété en 1905 ce mouvement brownien comme la conséquence des collisions désordonnées des molécules d’eau sur les grains de pollen et tiré de son modèle des prédictions sur le comportement erratique des grains ; Perrin a confirmé expérimentalement en 1909 les prédictions d’Einstein, validant la description de l’eau comme un assemblage de molécules plutôt que comme une substance continue et uniforme.
Avec surprise, les premiers explorateurs des atomes ont réalisé que les atomes n’étaient pas atomiques ! Loin d’être insécables, les atomes ont en effet peu à peu révélé une structure interne en deux parties. En périphérie de l’atome, à environ 0.0000000001 mètre du centre (on note 10-10m, soit dix zéro et un un), orbite un nuage d’électrons, des particules ponctuelles très légères, chargées négativement et découvertes en 1897. Au centre de l’atome, dans une région centrale cent mille fois plus petite que le nuage d’électrons (10-15m, soit quinze zéros précédant un un), se trouve un noyau chargé positivement qui concentre presque toute la masse de l’atome. Ce noyau détermine la nature chimique de l’atome : un noyau doté d’une charge élémentaire correspond à un atome d’hydrogène ; avec deux charges élémentaires, il correspond à un atome d’hélium, etc. ; on connaît aujourd’hui 118 éléments chimiques différents. Le noyau est à son tour composé de deux types de particules, les protons et les neutrons, eux-mêmes constitués d’un assemblage de particules plus élémentaires, les quarks.
   
 
Figure 1 (gauche) : le modèle planétaire proposé par Perrin puis Rutherford est l’un modèles atomiques les plus connus. Le dessin n’est pas à l’échelle : si le noyau faisait effectivement un millimètre, les électrons seraient à 2 kilomètres et demi de là. Entre les deux, il n’y a rien : la matière est essentiellement lacunaire,
Figure 2 (droite) : le modèle de Bohr stipule que, parmi toutes les orbites, seules certaines sont effectivement accessibles. Ce sont celles qui permettent aux ondes-électrons de boucler sur elles-mêmes (comme les orbites bleues et vertes, par opposition à l’orbite rouge).
 
L’image d’atome la plus souvent utilisée est issue de l’un des premiers modèles, proposé par Rutherford et Perrin autour de 1910, qui représente l’atome comme un système solaire miniature, avec le noyau dans le rôle du Soleil et les électrons dans celui des planètes (voir figure 1). Si cette représentation a l’avantage d’être visuelle, elle ne traduit que partiellement la réalité et se retrouve rapidement mise en défaut par l’expérience.
En 1913, Niels Bohr propose, pour faire face à ces problèmes, un modèle qui marque le début de la physique atomique moderne : d’après lui, toutes les orbites ne sont pas autorisées aux électrons qui tournent autour d’un noyau ; seules certaines trajectoires bien spécifiques sont effectivement accessibles. Pour interpréter correctement cette condition, il faut avoir recours à la mécanique quantique : en 1924, Louis de Broglie propose de décrire par une onde toutes les particules et en particulier les électrons des atomes. Sur certaines trajectoires (voir figure 2), l’onde-électron se reboucle sur elle-même et l’orbite est autorisée (en bleu et en vert). A l’inverse, la plupart des orbites ne permettent pas à l’onde de se refermer correctement et ne correspondent donc pas à des trajectoires accessibles aux électrons (en rouge). Ce modèle, progressivement enrichi par Sommerfeld, puis Schrödinger et Dirac, est aujourd’hui encore l’une des bases de réflexion des physiciens atomistes.
 
Vers l’infiniment petit et au-delà !
Depuis les premiers pas de la mécanique quantique, la réalité de cette description ondulatoire des électrons a été régulièrement mise à l’épreuve. Une très jolie expérience a été réalisée par Akira Tonomura dans les laboratoires d’Hitachi en 1989 [2] : en envoyant des électrons un à un sur une paroi percée de deux fentes, Tonomura observe des impacts ponctuels (comme si les électrons étaient de petites billes), mais qui s’accumulent petit à petit jusqu’à former des franges d’interférences (phénomène caractéristique des ondes) (voir figure 3). Les électrons sont donc bien capables de se comporter à la fois comme des ondes et comme des corpuscules.
 
 
Figure 3 : l’expérience des fentes Young (à gauche) met en évidence un phénomène caractéristique des ondes : l’apparition de franges d’interférences lorsque les ondes issues de deux fentes se superposent. La même expérience menée avec des électrons (à droite) donne des résultats analogues, ce qui montre la nature ondulatoire des particules.
 
Cette nature particulière permet de comprendre un autre phénomène étrange appelé effet tunnel. Les électrons se déplacent librement dans un métal conducteur mais ne peuvent pas se déplacer dans un isolant tel que l’air ; cependant, si une couche d’isolant sépare deux métaux, les électrons ont une chance, petite, d’autant plus petite que la barrière est épaisse, mais néanmoins non nulle, de traverser l’isolant pour passer d’un métal à l’autre. C’est exactement comme si une balle lancée contre un mur se retrouvait tout à coup de l’autre côté du mur plutôt que de rebondir dessus ; comme si les électrons avaient emprunté un tunnel pour traverser l’obstacle plutôt que de le contourner (figure 4). Pour la balle, la probabilité d’observer cet effet est si faible que, même en la lançant contre le mur pendant des milliards d’années, nous n’aurions presque aucune chance de la voir passer. Cependant, pour des particules plus petites et plus légères, comme des électrons, l’effet tunnel devient suffisamment important pour être observé et conduire à de nombreuses applications et à quelques prix Nobel.
 
Figure 4 : l’effet tunnel est un également un phénomène propre aux ondes : lorsqu’elle atteint une barrière isolante, une onde peut partiellement parvenir à passer de l’autre côté de la barrière, tout en étant fortement atténuée.
 
En particulier, cette propriété surprenante a été utilisée par deux ingénieurs d’IBM, Gerd Binnig et Heinrich Rohrer, [3] pour réaliser en 1981 le premier microscope à effet tunnel, capable d’observer la matière atome par atome. Pour ce faire, on approche une pointe métallique juste au-dessus d’un échantillon conducteur, sans pour autant le toucher pour ne pas le détruire. Par effet tunnel, les électrons présents dans l’échantillon peuvent traverser l’air isolant pour rejoindre la pointe et forment ainsi un courant électrique d’autant plus intense que la pointe est proche. Aussi, lorsqu’on déplace la pointe le long de la surface de l’échantillon, les variations de ce courant permettent de mesurer les changements d’altitude de l’échantillon avec suffisamment de précision pour détecter la présence de chaque atome de la surface (figure 5).
 
 Figure 5 : Par effet tunnel, les électrons dans l’échantillon traversent la couche d’air isolante pour atteindre la pointe et forment ainsi un courant électronique qui dépend de la distance entre les deux métaux. Dans la pratique, on approche ou on éloigne la pointe pour assurer un courant constant, donc une distance constante entre la pointe et l’échantillon. En mesurant les déplacements de la pointe, on peut ainsi cartographier l’échantillon.
 
En plus de cette possibilité de lire la matière, le microscope à effet tunnel permet également d’écrire : en se rapprochant davantage de l’échantillon, il est possible de coller un atome unique au bout de la pointe, de le déplacer puis de le déposer ailleurs. C’est en utilisant ces deux techniques que l’équipe d’IBM a pu aplanir une plaque de cuivre en enlevant tous les atomes dépassant de la couche supérieure, rajouter des atomes un à un pour former un dessin puis prendre une image de la scène avant de modifier le dessin pour créer une animation. Il aura fallu 242 images, précises à l’atome près, pour réaliser « un garçon et son atome » et montrer ainsi à quel point la technique est à présent maîtrisée !
    
 
Figure 6 : À gauche, le microscope à effet tunnel d’IBM est une bête de 2 tonnes, refroidie à quelques degrés au dessus du zéro absolu et mise sous vide, pour éviter que les fluctuations thermiques et la présence d’air ne perturbent les atomes. À droite : le résultat de ces efforts : la possibilité de faire des dessins atome par atome.
 
La veille d’une révolution technologique ?
Outre sa portée ludique, cette réalisation d’IBM est une réponse à l’obsolescence annoncée des technologies informatiques actuelles : si la puissance des ordinateurs n’a cessé de croître depuis les premiers modèles analogiques des années 1970, c’est essentiellement parce que les améliorations technologiques ont permis de réduire considérablement la taille des transistors et d’augmenter ainsi l’efficacité des microprocesseurs. Cette évolution est extrêmement rapide ; en 1975, Gordon Moore, cofondateur de la société Intel, a estimé que le nombre de transistors par centimètre carré doublait environ tous les deux ans. Cette prédiction a jusqu’à maintenant été vérifiée avec une précision surprenante : depuis 1971, où on comptait 2 000 transistors sur un microprocesseur, jusqu’en 2010, où on approche le milliard, la densité a été multipliée en moyenne par 1.96 tous les deux ans. Cette course à la miniaturisation va néanmoins connaître une limite ultime : à force de réduire les dimensions des transistors, on se rapproche progressivement de la taille d’un atome ; or comment réduire un objet fait d’atomes à une taille inférieure à ses constituants ? À l’heure actuelle, les transistors sont environ un millier de fois plus grands qu’un atome ; à ce rythme, la limite sera atteinte dans une poignée d’années.
 
Figure 7 : La loi de Moore prédit l’augmentation exponentielle du nombre de transistor sur un centimètre carré.
 
Les équipes d’IBM ont décidé de pousser directement la loi de Moore dans ses retranchements : plutôt que de miniaturiser des dispositifs existants, ils ont cherché à créer un transistor avec le moins d’atomes possible, en les positionnant un par un avec la même technique que celle utilisée pour réaliser "un garçon et son atome". Leur record est actuellement de 12 atomes seulement [4], ce qui en fait l’un des objets technologiques les plus petits jamais produits.
Avec la réalisation et la promotion d’ « un garçon et son atome », IBM atteint un double objectif : rappeler leur maîtrise des technologies existantes et affirmer leur capacité d’innovation et leur volonté de s’attaquer aux nanotechnologies les plus extrêmes. Ils montrent également les progrès incroyables de la physique atomique, qui reste encore aujourd’hui un domaine de recherche fondamentale particulièrement actif [5].
 
Références :
[2] Une vidéo de l’expérience est disponible ici : ; la description et l’article associé sont disponibles ici : 
[5] Le site du Collège de France a inauguré cette année une chaire consacrée à la physique atomique. L’ensemble des présentations est disponible sur leur site, la leçon inaugurale expose en particulier les perspectives du domaine. 
 

 
La formule du jour : Le courant tunnel
 
Par effet tunnel, les électrons peuvent passer d’un métal à un autre en traversant une barrière isolante. Ces électrons forment un courant électronique, dont l’intensité vaut :
 
 
où e=1.6 10-19 C’est la charge électrique élémentaire, h=6.62 10-34 J.s est la constante de Planck, U est la tension entre les deux métaux, m = 10-30 kg la masse d’un électron, W la hauteur de la barrière et d sa largeur.
On retrouve ici une expression analogue à la loi d’Ohm U=RI, avec une résistance R qui ne dépend que de constantes fondamentales et des caractéristiques de la barrière.
La constante de Planck h est caractéristique de la théorie quantique ; sa présence dans l’équation montre que le phénomène est d’origine quantique et ne peut pas être décrit par la physique classique.
Pour observer un courant, il faut appliquer une tension entre les deux métaux (si U=0, alors I=0). Cette tension doit être suffisamment faible pour éviter que des étincelles ne se forment ; dans la pratique, les tensions appliquées dans un microscope à effet tunnel sont de l’ordre du millivolt.
La pointe est généralement à environ 1 nanomètre de l’échantillon, ce qui engendre un courant de quelques nanoampères, soit un flux d’environ un milliard d’électrons par secondes.
La formule montre que l’intensité décroit exponentiellement avec la distance entre les deux métaux ; si la distance est augmentée de la taille d’un atome, le courant est environ divisé par 10. Ce sont donc des variations de quelques nanoampères qu’il faut pouvoir mesurer pour cartographier la matière à l’échelle de l’atome. 
 
Daniel Suchet

Retrouvez tous les articles de Daniel Suchet.

D'accord, pas d'accord ? Parlez de ce livre sur le forum.

Vous voulez donner votre avis sur ce sujet ? Vous voulez mettre un lien vers votre propre chronique ? Cliquez ici.