C80

From SAS
Jump to: navigation, search




Contents

UN MONDE TOUJOURS PLUS QUANTIQUE…

Jamais une théorie scientifique n’a été aussi confortée par l’expérience. Centenaire, la physique quantique a maintes fois été poussée dans ses retranchements et a toujours dépassé l’épreuve. Nous vivons dans un monde résolument quantique, et les objets qui nous entourent (ordinateurs, smartphones, GPS…) en sont la preuve.

Mais on peut encore aller plus loin. Même l’intrication, l’une des plus étranges propriétés prévues par la théorie quantique, par laquelle deux éléments qui ont interagi sont liés par-delà les distances, est désormais incontestablement confirmée par des expériences.

Plus encore, on commence même à comprendre comment on passe du monde microscopique et quantique, où règnent les probabilités, au nôtre, classique et macroscopique, bien plus tangible.

LES AUTEURS

ÉTIENNE KLEIN est directeur du laboratoire Larsim du CEA, à Saclay, au sud de Paris.

CARLO ROVELLI est professeur à l’université de la Méditerranée, chercheur au Centre de physique théorique, à Marseille.

L’ESSENTIEL

La physique quantique a démontré son efficacité pour décrire des phénomènes et prédire les résultats d’expériences.

Mais que dit-elle vraiment du monde? Son interprétation pose toujours des difficultés, et diverses voies sont explorées pour les résoudre.

Un autre déft est de construire une théorie quantique de la gravitation, capable de décrire les premiers instants de l’Univers et le cœur des trous noirs.

Une efficacité déraisonnable ?

Centenaire, la physique quantique est au cœur des technologies modernes. Mais malgré sa spectaculaire fécondité, son interprétation garde quelques zones d'ombre.

Le chat à la fois mort et vivant de Schrödinger symbolise tout le caractère contre-intuitif de laphysique quantique et les progrès qui restent à faire pour comprendre les lois étranges de cette théorie.

Une efficacité déraisonnable ?

Dans les années 1920, le comportement des atomes et des particules déroutent les physiciens. Pour expliquer certains phénomènes, comme le rayonnement du corps noir, ils développent des concepts radicalement nouveaux qui les conduisent à penser autrement la matière et ses interactions. Une décennie d’effervescence créatrice et d’intense labeur a suffi pour qu’un petit nombre d’entre eux fondent l’une des plus belles constructions intellectuelles de tous les temps, la physique quantique. Celle-ci rencontra rapidement un vif succès, grâce à la confirmation de ses prédictions expérimentales précises. Elle est aujourd’hui omniprésente dans notre quotidien: dans nos ordinateurs, dans nos téléphones, dans nos écrans...

Pourtant, malgré son succès incontestable, la physique quantique reste énigmatique par bien des aspects, notamment parce que cet édifice théorique exige un travail d’interprétation, que les physiciens ont les pires difficultés à mener à bien. Il faut dire que la théorie quantique pose des questions à la fois inédites et vertigineuses: comment comprendre son formalisme? Est-ce un simple outil pour prévoir les résultats d’une expérience? Quel statut confère-t-elle au hasard qui intervient dans la détermination des résultats? Donne-t-elle accès à une description de la réalité du monde?

Si la physique quantique troubla tant, c’est parce qu’elle échappait au cadre d’interprétation de la physique classique. À tout système, la physique classique attache des propriétés qui appar- tiennent en propre au système (par exemple, tel vélo est bleu et roule à 30 kilomètres par heure), et n’attribue pas de rôle fondamental à l’opéra- tion de mesure, qui n’est que l’enregistrement neutre et passif de grandeurs existant objectivement (le vélo est bleu, qu’on le regarde ou non).

RENTRER DANS LE RANG

La physique quantique, elle, ne semble pas partager un « engagement ontologique » aussi fort. D’abord, elle n’accorde aux particules ni position, ni trajectoire, ni forme bien détermi- nées. Ensuite et surtout, elle renonce à faire usage de l’idée, pourtant élémentaire, consistant à attribuer aux particules une réalité qui serait pleinement indépendante des moyens de l’obser- ver. Était-ce le signe que le cadre d’interprétation classique devait être définitivement abandonné? Ou bien, au contraire, qu’il manquait à cette nou- velle physique des ingrédients dont la prise en compte la ferait «rentrer dans le rang»? C’est autour de ces questions que les physi- ciens Niels Bohr et Albert Einstein se sont ami- calement, mais fermement, opposés l’un à l’autre (voir la photo page 19). Bohr considérait que la physique quantique obligeait à bouleverser les théories rendant compte du rapport que nous avons avec ce qu’on nomme par commodité (sans en dire davantage) «la réalité». Einstein pensait, lui, qu’il était prématuré de conclure de la sorte. Le père de la relativité n’a jamais pré- tendu que la physique quantique fût une théorie fausse, mais, selon lui, une théorie physique ne doit pas être jugée à l’aune de sa seule efficacité opératoire: elle doit aussi dépeindre les struc- tures intimes du réel. Or, à ses yeux, la physique quantique, malgré ses spectaculaires et incontes- tables succès expérimentaux, ne faisait pas cela de façon satisfaisante.

Dans le cadre de la théorie quantique, un système physique est écrit par un objet mathé- matique, la fonction d’onde. Celle-ci s’écrit, en général, comme la somme de plusieurs fonc- tions représentant chacune un état particulier, affecté d’un certain coefficient. On est alors face à une « superposition» d’états possibles, une situation sans équivalent en physique classique. La théorie stipule alors que connaissant la fonc- tion d’onde, on ne peut en général pas détermi- ner le résultat d’une mesure, mais seulement calculer les probabilités d’obtenir tel ou tel résultat. Et parmi tous les résultats possibles a priori, un seul est sélectionné, au hasard, par l’opération de mesure. Cette dernière entraîne une « réduction des possibles» qui s’effectue d’un coup et de façon aléatoire.

Or, selon Einstein, une bonne théorie physique se doit d’éliminer le hasard, sinon de ses constructions, du moins de ses principes. Ensuite, Einstein tenait à une certaine forme de « réalisme», l’idée d’un monde réel dont les plus minuscules parcelles existent objectivement, que nous les observions ou non. Or, constatant que ce réalisme-là est compromis par la physique quantique, il voulut démontrer qu’il existait des éléments de réalité que cette théorie n’est

description quantique de la réalité physique peut-elle être considérée comme complète ?» Question à laquelle les trois chercheurs répon- daient par la négative.

Leur raisonnement s’appuie sur trois hypothèses. La première stipule que les pré- dictions de la physique quantique sont justes. Il n’est pas question pour Einstein et ses col- lègues de considérer que la physique quantique est une théorie fausse, ils questionnent juste sa cohérence interne.

POUR EINSTEIN,LE MONDE RÉEL EXISTE OBJECTIVEMENT, QUE NOUS L’OBSERVIONS OU NON

pas en mesure d’appréhender. Cette dernière serait donc incomplète, d’où cette impression d’une description fondée sur le hasard et ne décrivant pas un monde qui existe indépendamment de l’observation. Bohr, lui, répugnait à consi- dérer qu’il existât une réalité objective, indépendante de l’ap- pareil de mesure. Selon lui, ce qu’une théorie physique peut prétendre décrire, ce sont seule- ment des phénomènes incluant dans leur définition le contexte expérimental qui les rend mani- festes. La physique quantique n’avait donc pas besoin d’être amendée. Cette vision est à la

Deuxième hypothèse: aucune influence ne peut se propager plus vite que la lumière, conformément à la relativité restreinte. Ce cri- tère de localité implique tout simplement que lorsque deux événements sont si lointains dans l’espace et si rapprochés dans le temps que la lumière n’a pas le temps de les relier, aucun de ces deux événements ne peut agir sur l’autre; ils se déroulent alors « chacun dans leur coin », exactement comme si l’autre n’avait pas eu lieu. Et si on applique le critère de localité aux particules, il implique que chacune transporte avec elle, c’est-à-dire « localement», les propriétés qui vont déterminer les résultats des mesures. Enfin, le dernier critère, l’hypothèse de réa- lité, indique que si l’on peut prédire avec certitude la valeur d’une grandeur physique, alors il existe un élément de réalité physique corres- pondant à cette grandeur. La valeur trouvée

base de ce qu’on nomme l’interprétation de Copenhague (et ses différentes nuances), portée par Bohr, Werner Heisenberg et d’autres, et qui a longtemps été considérée comme la seule façon de concevoir la physique quantique.

QUAND EINSTEIN ET BOHR S’OPPOSENT

Le débat entre Einstein et Bohr démarra en 1927, à Bruxelles, lors d’un congrès Solvay, une conférence scientifique qui réunissait les plus grands physiciens de l’époque. Einstein chercha une contradiction dans les « relations d’incertitude de Heisenberg », qui concernent le comportement de particules quantiques individuelles. Ces relations fondamentales de la théorie quantique s’expriment sous la forme d’inégalités qui relient deux grandeurs dites « complémentaires», comme la position et la vitesse. Une conséquence de ces inégalités est qu’il n’est pas possible de connaître parfaite ment les grandeurs complémentaires en même temps. Mais à chaque offensive, Bohr parvint à contrer les arguments d’Einstein.

En 1935, la discussion reprit autour d’un article signé par Einstein et deux de ses collègues, Boris Podolsky et Nathan Rosen. Ce texte comportait une objection concernant non plus le comportement d’une seule particule, mais celui d’une paire de particules – dont les propriétés sont si étroitement liées que l’on parle de « particules intriquées» – et s’intitulait : « La

n’est ni une hallucination ni un fantôme: un élément de réalité lui correspond nécessaire- ment, et le formalisme se doit de l’intégrer, sans quoi il ne serait pas complet.

L’ARGUMENT EPR SÈME LE TROUBLE

Ensemble, ces trois hypothèses précisent ce qu’il faut entendre par « objet réel» en restant proches d’un certain bon sens et des idées de la physique classique. Forts de ces arguments, Einstein, Podolsky et Rosen considérèrent une expérience de pensée s’appuyant sur un système constitué de deux électrons intriqués, créés par un processus liant leurs vitesse et position dans des rapports préétablis. Plus précisément, les deux électrons partent dans des directions opposées à la même vitesse. En mesurant la vitesse de la particule 1, on en déduit la vitesse de la parti- cule 2 au même instant sans altérer son état; en vertu du critère de réalité, la vitesse de la parti- cule 2 est donc un élément de réalité. En procédant de même avec la position, on arrive à la conclusion que la position de la particule 2 est également un élément de réalité. Or, mises ensemble, ces deux assertions contredisent le principe d’indétermination de Heisenberg, selon lequel la position et la vitesse d’une particule ne peuvent pas être déterminées simultanément.

Cette contradiction amena les trois cher- cheurs à conclure que la physique quantique n’est pas en mesure de rendre compte de ces

éléments de réalité (ici la position et la vitesse). Il faut donc considérer la théorie comme incomplète: des variables qui n’apparaissent pas dans son formalisme mathématique porteraient ces informations, ces éléments de réalité. Ou alors, il faudrait imaginer que la position et la vitesse ne sont pas des éléments de réalité; et que la mesure opérée sur la particule 1 déterminerait, à distance, instantanément et comme par miracle (par «télépathie» dira Einstein), les grandeurs relatives à la particule 2. Cette solution était impossible aux yeux des trois physiciens, car elle violait l’hypothèse de localité et les lois de la relativité restreinte. La physique quantique serait alors une théorie dite «non locale».

Pour mieux comprendre le problème, choisissons une illustration plus proche de l’expérience commune. Supposons que nous disposions de deux cartes, l’une bleue, l’autre rouge, et que nous les placions chacune dans une enveloppe scellée. Mélangeons les deux enveloppes à l’abri de tout regard, puis donnons-en une à Paul et l’autre à Julie. Lorsque Paul ouvre son enveloppe, il découvre la couleur de sa carte. Le résultat qu’il obtient est évidemment corrélé avec celui qu’obtiendra Julie: si la carte de Paul est bleue, celle de Julie sera rouge, et inversement. Comment interpréter cela ? Tout simplement en considérant que les couleurs respectives des cartes de Paul et Julie

Niels Bohr et Albert Einstein ont contribué à la fondation de la physique quantique et à son interprétation. Ils ont confronté leurs visions antagonistes lors de débats qui ont profondément marqué les développements de cette théorie et qui ont permis de mieux la comprendre.

étaient déjà fixées avant l’ouverture de l’enve- loppe: cette action n’a fait que révéler une situa- tion qui n’était pas encore connue de Paul, mais qui était déjà parfaitement déterminée.

En d’autres termes, ce n’est pas le fait que Paul prenne connaissance de la couleur de sa carte qui a fixé cette couleur, ni qui aurait ensuite déterminé la couleur de la carte de Julie par quelque information transmise de la première enveloppe vers la seconde. Les deux cartes se trouvent avoir la couleur qu’elles ont en vertu de la cause commune qui les a fixées lorsqu’elles ont été glissées dans les enveloppes.

C’est ce type d’arguments que l’hypothèse de réalité d’Einstein condense: il y a un «élément de réalité physique» associé à la couleur de la carte de Julie puisque, sans ouvrir l’enveloppe qu’elle a entre les mains, elle est capable de la connaître. Il lui suffit de demander à Paul le résultat qu’il a obtenu et d’en tirer la conclusion.

COMPLÈTE OU NON ?

Le cas des cartes de Paul et Julie est évidem- ment un problème de nature classique, où la part probabiliste prend sa source dans le «mélange statistique» initial des cartes. Dans le cas d’un système quantique de deux électrons intriqués, c’est la superposition des états qui entre en jeu. Mais ce qu’Einstein et ses deux collègues démontrent, c’est que l’application du critère de réalité à la théorie quantique conduit au « paradoxe EPR» (d’après les initiales des trois signataires). Plus précisément, pour garan- tir le réalisme et éviter des conflits de cohérence internes à la théorie, il doit exister des variables additionnelles qui ne sont pas contenues dans la physique quantique. Ce formalisme est ainsi pris en flagrant délit d’incomplétude. Il doit donc exister, selon Einstein et ses collègues, un niveau de description plus fin de la réalité que celui proposé par la physique quantique.

Dès la publication de cet article, Bohr décida de défendre la physique quantique telle qu’elle est. Mais il comprit vite que le raisonnement d’Einstein était extrêmement subtil et que sa réfutation serait délicate. Bien sûr, la réponse qu’il apportait à la question posée (la physique quantique est-elle complète?) était un oui sans équivoque, mais son argumentation semblait plutôt confuse. Incapable d’identifier la moindre erreur dans l’argumentation EPR, Bohr fut réduit à affirmer que les preuves four- nies par Einstein n’étaient pas assez solides et sa critique porta essentiellement sur le critère de réalité de son interlocuteur.

À vrai dire, ces débats n’intéressaient guère les physiciens, car ils n’avaient pas d’incidence sur leur façon d’utiliser le formalisme de la phy- sique quantique, c’est-à-dire de faire des calculs et des prédictions qui étaient toujours en accord avec les mesures. La fécondité de la théorie quantique était même si spectaculaire >> et si vaste qu’il n’apparaissait ni nécessaire ni utile de mieux la comprendre.

Mais en 1964, au Cern, près de Genève, John Bell, physicien nord-irlandais très sou cieux, lui, de clarté conceptuelle, vint modifier radicalement la situation et transforma le débat philosophique en un problème de physique.

UNE ISSUE GRÂCE À JOHN BELL

Il proposa des situations expérimentales où la physique quantique donnerait des prédictions différentes d’une théorie prétendant la compléter en respectant l’hypothèse de localité, grâce, par exemple, à l’introduction de « variables cachées locales » (voir Pas d'échappatoire pour l’intrication, par R. Hanson, page 26). La controverse entre Bohr et Einstein allait pouvoir être tranchée au laboratoire !

Ce fut le cas au début des années 1980, quand une équipe de l’institut d’optique d’Orsay, dirigée par Alain Aspect, mena à bien une série d’expériences avec des photons intriqués, qui montra qu’en l’occurrence, ce sont les prédictions de la physique quantique telle qu’elle

est qui sont justes, et non celles des théories concurrentes. En définitive, c’est toute la classe des théories réalistes locales qui se trouvait là réfutée. Par la suite, d’autres expériences plus précises et plus élaborées, menées avec des photons mais aussi avec des particules de matière, démontreront elles aussi, de façon irréfutable, l’absence d’échappatoires pour les théories à variables cachées locales.

On doit alors admettre le caractère non local de la théorie quantique, mais qu’est-ce que cela signifie? Cela implique que dans certaines situations, deux particules qui ont inter- agi dans le passé ont des liens que leur distance mutuelle, aussi grande soit-elle, n’affaiblit pas. Ce qui arrive à l’une des deux est irrémédiable- ment associé (intriqué) à ce qui arrive à l’autre, par l’entremise d’une connexion étrange, sans équivalent dans le monde ordinaire, car elle ne résulte pas de la transmission d’une information à distance. La paire formée par les deux particules a des propriétés globales que n’ont pas les particules individuelles. Ce phénomène étrange impose de renoncer définitivement à

DES EXPÉRIENCES DE GRAVITÉ QUANTIQUE

Pour comprendre comment concilier la force gravitationnelle et la physique quantique, plusieurs équipes de physiciens conçoivent des expériences capables de mesurer des champs gravitationnels avec une précision extrême afin d’y déceler des comportements quantiques. Ils espèrent voir ainsi des particules dans des configurations de superposition quantique de deux positions différentes et des effets d’intrication.

Faisceau laser

Sphère test

< 1 mm

Sphère dans une superposition d’états

Champ gravitationnel

Sphère en or

Les deux sphères sont dans des superpositions d’états

Électroaimant

Microlevier

Ressort 1 mm

UNE ÉTAPE PRÉLIMINAIRE : MESURER LE CHAMP GRAVITATIONNEL

Dans l’expérience proposée par le physicien Markus Aspelmeyer, l’idée est de mettre une sphère dans un état de superposition de deux positions spatiales différentes simultanées et de voir si le champ gravitationnel associé à cette masse est aussi séparé en deux. Pour observer de tels effets, il faut d’abord un dispositif capable de mesurer avec précision le champ gravitationnel de petits objets (ici des sphères en or). Dans cette expérience, un électroaimant couplé à un ressort fait vibrer une sphère. Par la seule force gravitationnelle, la seconde sphère, posée sur un microlevier (cantilever) similaire à ceux utilisés dans les microscopes à force atomique, devrait osciller. Les physiciens espèrent mesurer cet effet infime.

L’EXPÉRIENCE DE MARKUS ASPELMEYER

L’équipe mettra une sphère (violette) dans un état de superposition de deux positions grâce à un laser. Le champ ravitationnel de cette sphère sera alors aussi dans une superposition d’états et aura deux distributions spatiales. Comment la sphère test (verte) interagira-t-elle avec ce champ ? L’interaction pourrait détruire la superposition d’états, ce qui serait un signe de la nature classique de la force gravitationnelle. Ou bien la superposition pourrait persister et conduire à un système intriqué des deux sphères, ce qui confirmerait la nature quantique de la force gravitationnelle.

interpréter la physique quantique dans le sens des idées d’Einstein. En particulier, il n’y a aucun moyen de compléter la physique quantique en termes de variables cachées locales.

Ce résultat a été une grande avancée dans la compréhension de la physique quantique. Néanmoins, de nombreuses difficultés conceptuelles subsistent que des physiciens et des philosophes continuent d’explorer. Pour certains, la physique quantique, dans son interprétation par l’école de Copenhague, est moins une théorie physique qu’un ensemble efficace de « recettes » pour calculer des résultats de mesures. Mais, comme le soulignait déjà Bell, cet ensemble de recettes n’en est pas moins, lui-même, problématique. Pourquoi l’observateur joue-t-il un rôle si important? Pourquoi l’acte de la mesure provoque-t-il l’effondrement de la fonction d’onde en l’une de ses composantes ? Ou encore, pourquoi un système macroscopique ne manifeste-t-il jamais une superposition d’états?

Depuis plusieurs décennies, les physiciens tentent de dépasser l’interprétation de Copenhague pour traiter ces difficultés. En explorant plusieurs pistes.

Évoquons les quatre directions principales explorées pour résoudre les difficultés conceptuelles de la physique quantiroche reprend le principe des variables cachées, c’est-à-dire l’idée que la physique quantique est incomplète et qu’il existe des variables structurellemnt impossibles à mesurer. Pour être cohérente avec les phénomènes d’intrication (et donc avec les expériences d’Alain Aspect), la dynamique de ces variables doit bien sûr être non locale.

ONDES PILOTES ET MULTIVERS

La meilleure des théories à variables cachées est la théorie de Broglie-Bohm, d’abord suggérée par le physicien français Louis de Broglie en 1927 sous le nom de théorie de l’onde pilote, en s’inspirant du principe de la dualité onde-corpuscule qu’il avait énoncé quelques années plus tôt. Elle a ensuite été précisée en 1952 par l’Américain David Bohm. Dans ce cadre, chaque particule est décrite par sa position dans l’espace et par une onde associée, qui est la variable cachée et qui guide le mouvement de la particule. Dans cette théorie, réaliste au sens d’Einstein, l’évolution est continue sans effondrement de la fonction d’onde. L’indéterminisme quantique est alors simplement la manifestation de notre ignorance des variables cachées.

Une deuxième voie, particulièrement osée, est l’interprétation des mondes multiples, qui repose sur des idées publiées en 1956 par le physicien américain Hugh Everett. À chaque mesure, toutes les prédictions possibles se réalisent, mais dans des mondes différents. Il n’y aurait donc jamais d’effondrement de la fonction d’onde. La réalité serait beaucoup plus vaste que celle à laquelle nous avons accès. L’indéterminisme serait la manifestation de notre ignorance sur notre localisation dans cette réalité élargie: toutes les prédictions de la théorie seraient réalisées, mais nous occuperions une certaine « branche» de la réalité, de sorte que nous ne verrions qu’un seul des résultats parmi tous ceux a priori possibles.

Une troisième possibilité est que la physique quantique n’est pas cohérente en soi, car elle ne serait qu’une approximation d’une théorie plus fondamentale à la dynamique complexe et non linéaire que nous n’avons pas encore directement observée. Cette dynamique est réalisable de différentes façons. Par exemple, les physiciens Giancarlo Ghirardi, Alberto Rimini et Tullio Weber ont proposé en 1986 un mécanisme, dit «de réduction dynamique», qui provoque de façon aléatoire l’effondrement de la fonction d’onde. Pour une particule individuelle, l’effondrement de la fonction d’onde serait un événement très rare, qui se manifesterait en >

Les expériences d’Alain Aspect sur l’intrication quantique ont connu de nombreuses améliorations et variantes, dont certaines sont réalisées depuis l’espace. En 2017, un satellite chinois, Micius, a servi de source pour des particules intriquées émises vers deux observatoires distants de 1 200 kilomètres.

> moyenne une fois tous les milliards d’années. Mais sur un objet macroscopique contenant de l’ordre de 1023 particules, on aurait souvent des effondrements, de sorte qu’un état non super- posé se dessinerait.

La quatrième possibilité, enfin, est la plus chère à l’un d’entre nous (Carlo Rovelli), qui l’a proposée en 1994. L’idée est de prendre la phy- sique quantique comme elle est, c’est-à-dire sans y ajouter de variables cachées et sans faire appel à des mondes multiples ou à une dyna- mique non observée. Les aspects apparemment paradoxaux de la théorie seraient engendrés par le fait qu’on oublie de tenir compte du caractère relatif de toutes les grandeurs physiques qui décrivent un système. Elles sont toujours défi- nies relativement à un autre système physique (de la même façon que la vitesse d’un objet est définie seulement par rapport à un autre objet). Cette interprétation de la physique quantique, nommée «interprétation relationnelle », s’ins- pire de la relativité restreinte. Ainsi, si pour un observateur, un système est dans un seul état suite à l’effondrement de la fonction d’onde, il pourrait être encore dans une superposition d’états pour un autre observateur. Les états ne décrivent pas le système observé lui-même, mais une relation entre le système et l’observateur.

Ces quatre pistes pour mieux comprendre la physique quantique ont néanmoins toutes un coût conceptuel élevé: chacune exige de renon- cer à quelque chose qui n’est pas facile à aban- donner. La théorie de Broglie-Bohm se heurte à certaines difficultés quand on veut l’associer à la théorie de la relativité restreinte et demande d’accepter qu’une partie de la réalité soit en principe inobservable. L’interprétation des

mondes multiples demande d’imaginer qu’il y aurait une infinité inaccessible de couches de réalité, sans compter qu’il n’est pas aisé de relier ces mondes multiples à notre expérience. Les théories de réduction dynamique impliquent un phénomène d’effondrement spontané de la fonction d’onde que l’on n’a pas observé dans les expériences. L’interprétation relationnelle nous empêche de décrire le monde physique dans sa globalité: on peut seulement décrire une partie du monde par rapport à une autre.

L’ÉPREUVE DE LA GRAVITÉ QUANTIQUE

Les discussions entre les théoriciens qui défendent l’une ou l’autre de ces pistes (ou d’autres encore) sont souvent très animées. Cela dit, comme le conseillait le physicien américain Richard Feynman : « Les lois plus générales de la physique admettent souvent des formulations et des interprétations très différentes; mais un bon théoricien doit savoir les utiliser toutes, car nul ne sait laquelle se révélera la plus efficace. » Cette attitude est peut-être la plus recommandable vis-à-vis des difficultés conceptuelles de la physique quan- tique. Seule la suite de l’histoire pourra nous dire quelle est en définitive l’interprétation qui se montrera la plus efficace et utile. D’autant qu’il est un domaine d’étude qui per- mettrait de mettre à l’épreuve les différentes interprétations de la physique quantique. C’est celui qui vise à construire une théorie quantique de la gravitation.

Au xxe siècle, les chercheurs se sont rapi- dement aperçus que les deux grandes avan- cées de la physique, la physique quantique et la relativité générale, sont difficiles à conci- lier. Si, dans la plupart des cas, il est effecti- vement possible de ne considérer qu’une seule de ces théories, l’absence d’une théorie quantique de la gravitation nous empêche de comprendre certains phénomènes réels, comme ce qui se passe au cœur des trous noirs ou au début de l’Univers.

Les deux pistes les plus prometteuses pour élaborer une théorie de «gravité quantique» sont la théorie des cordes et celle de la gravitation quantique à boucles. Si la première suggère que les particules ne sont pas ponctuelles, mais de minuscules cordes vibrantes, la seconde postule que l’espace-temps lui-même est sujet à tous les phénomènes typiques de la physique quantique, avec la conséquence, en particulier, que l’espace ne serait pas continu, mais discrétisé: aires et volumes deviennent des grandeurs quantifiées, qui ne peuvent être arbitrairement petites.

Ces théories ont connu d’importants déve- loppements s’étendant parfois au-delà de la seule question de la gravité quantique, avec des retombées, par exemple, en mathématiques ou en physique de la matière condensée.

Il y a encore une dizaine d’années, les scien- tifiques pensaient que les phénomènes de gra- vitation quantique étaient hors de portée des expériences, de sorte qu’il était impossible d’obtenir le moindre indice empirique permet- tant d’en savoir plus sur la nature réelle de la gravité quantique. Or cette impression était en partie fausse, comme l’ont montré plusieurs expériences et observations récentes.

Au LHC (le Grand collisionneur de hadrons), au Cern, les physiciens accélèrent des protons à des vitesses proches de celle de la lumière pour les faire se percuter frontale- ment et ainsi produire des collisions à haute énergie d’où émergent des particules massives de très courte durée de vie. C’est ainsi qu’ils ont confirmé l’existence du boson de Higgs, en 2012, pièce jusque-là manquante du modèle standard de la physique des particules. Ce modèle, développé à par- tir des années 1960, décrit les parti- cules fondamentales et leurs

exemple dans la mesure de la vitesse de rayons cosmiques. Les résultats ont été nets : non seu- lement on n’a trouvé aucune indication d’une brisure de cette invariance, mais celle-ci a été confirmée jusqu’à des échelles d’énergie supé- rieures à celles qui sont caractéristiques de la gravitation quantique. La gravité de Ho?ava et toute la classe de modèles prédisant une bri- sure de l’invariance de Lorentz sont ainsi mises en difficulté.

Depuis 2015, une nouvelle fenêtre d’obser- vation de l’Univers s’est ouverte. La détection par les collaborations Ligo et Virgo d’ondes gra- vitationnelles, des vibrations de l’espace-temps, ont été une confirmation éclatante de la relati- vité générale. Mais elle a fait davantage. En 2017, une détection simultanée des ondes gravitationnelles et électromagnétiques pro- duites par la coalescence de deux étoiles à neutrons a montré que ces deux types d’ondes se propagent à la même vitesse (avec une très petite marge d’erreur). Ce

interactions, mais il ne tient pas compte de la gravitation et laisse ouvertes cer- taines questions théoriques.

CORDES ET SUPERSYMÉTRIE

Une grande partie de la commu- nauté scientifique était convaincue, à partir d’arguments théoriques, qu’il était possible d’étendre de façon très simple et naturelle le modèle standard grâce à la supersymétrie (une symétrie hypothétique entre particules de spin entier et particules de spin demi- entier). Cette extension du modèle standard implique l’existence de nou- velles particules que l’on pensait être en mesure de produire et d’observer au LHC. En outre, la théorie des cordes repose sur la supersymétrie et une

L’INTRICATION EST UNE CONNEXION ÉTRANGE, SANS ÉQUIVALENT DANS LE MONDE ORDINAIRE

résultat a mis en difficulté de nom- breuses théories de gravité modifiée, concurrentes de la relativité générale. Celles-ci avaient été proposées pour expliquer certaines observations comme l’expansion accélérée de l’Univers ou la matière noire, mais elles prévoient sou- vent que la vitesse des deux types d’ondes doit être différente. Encore une fois, la nature nous indique que certaines directions de recherche n’étaient pas les bonnes. Ce qui n’empêche pas que, pour le savoir, il fallait tout de même les explorer.

UNE VISION QUI SE PRÉCISE

Enfin, un résultat empirique impor- tant pour la gravité quantique vient de la cosmologie: la mesure de l’expansion

détection de la supersymétrie au LHC aurait été une indication intéressante en faveur de cette théorie. Or une telle détection n’a pas eu lieu. Mais déjà, les scénarios supersymétriques les plus naturels ont été exclus. Dès lors, l’ab- sence de supersymétrie au LHC n’est pas une bonne nouvelle expérimentale pour la théorie des cordes.

La théorie des cordes et la gravitation quan- tique à boucles ne sont pas les seules pistes pour une gravité quantique. D’autres ont été explo- rées et ont parfois été mises en grande difficulté par l’expérience. Par exemple, en 2009, Petr Ho?ava, de l’université de Californie à Berkeley, a proposé un modèle de gravité quantique qui brise l’invariance de Lorentz, la symétrie mathé- matique par laquelle se traduit l’absence de réfé- rentiel privilégié en relativité restreinte.

Motivés par ces spéculations, les astro- nomes ont cherché les signes d’une brisure de l’invariance de Lorentz dans l’Univers, par

accélérée de l’Univers. Cette dynamique est bien décrite par les équations de la relativité générale quand elles incluent une constante, la «  constante cosmologique», qui prend dans ce cas une valeur positive. Mais dans la théorie des cordes, cette constante est naturellement négative, en contradiction avec les observa- tions. Des tentatives d’adapter la théorie des cordes à une constante cosmologique positive existent, mais restent très controversées. Les expériences qui tranchent de façon définitive sont rares en science : en général, les hypo- thèses gagnent ou perdent en crédibilité en fonction de l’accumulation d’indices vérifiés ou non. Le fait que la constante cosmologique soit de signe contraire à ce que la théorie des cordes avait indiqué affaiblit la confiance que l’on peut avoir en cette piste.

Ces différents exemples de résultats obser- vationnels et expérimentaux nous ont fait pro- gresser sur ce que peut être la gravité quantique. >

BIBLIOGRAPHIE

F. LALOË, Comprenons-nous vraiment la mécanique quantique?, EDP Sciences/CNRS (2e édition), 2018.

S. BOSE ET AL., A spin entanglement witness for quantum gravity, Phys. Rev. Lett., vol. 119(24), article 240401, 2017.

G. GHIRARDI, Collapse theories, The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.), 2016.

C. ROVELLI, Par-delà le visible : la réalité du monde physique et la gravité quantique, Odile Jacob, 2015.

> Ainsi, les spécialistes de la théorie des cordes qui, dans les années 1980, pensaient résoudre rapidement le problème de la gravité quantique ont dû revoir leurs objectifs.

L’approche de la gravitation quantique à boucles a été moins ébranlée par ces données récentes. Cependant, les chercheurs travail- lant sur cette piste sont moins nombreux et il faut encore fournir un effort considérable pour obtenir des prédictions quantitatives suscep- tibles d’être confrontées aux expériences.

En particulier, deux phénomènes concentrent une grande partie de l’attention des physiciens. D’abord, la théorie suggère que le Big Bang aurait été un « grand rebond» (big bounce en anglais), un résultat obtenu en 2007 par Martin Bojowald, aujourd’hui à l’université d’État de Pennsylvanie. Suivant cette idée, un préunivers aurait été en contraction, s’effon- drant sur lui- même. Mais à cause du caractère discret de l’espace, lorsqu’une densité critique a été atteinte, un rebond aurait inversé la dyna- mique et renvoyé l’Univers en expansion. Le cosmos ne serait donc pas né d’une singularité de densité infinie.

REBONDIR EN TROU BLANC

Suivant une idée similaire, les trous noirs pourraient eux aussi « rebondir» en se trans- formant en « trous blancs» (des objets prédits par la relativité générale et encore non obser- vés). L’un de nous (Carlo Rovelli) et ses col- lègues travaillent activement à déterminer des signatures observationnelles de ces rebonds, en particulier dans le fond diffus cosmologique (le rayonnement émis par l’Univers quand il n’avait que 380 000 ans) et dans les rayons cosmiques. Les éventuels trous blancs pro- duits par des trous noirs primordiaux pour- raient même être une composante de la mystérieuse matière noire.

Quelle que soit la formulation correcte de la théorie de la gravitation quantique, elle est, en tout cas quantique ! Elle héritera donc des difficultés conceptuelles de la physique quantique, qui seront peut- être même exacer- bées. Car ce ne sont pas seulement les parti- cules qui pourront se trouver dans une superposition d’états ou en intrication, mais aussi la géométrie de l’espace-temps elle-même.

Sur la question de l’interprétation de la physique quantique la plus adaptée à la gravité quantique, comme on pouvait s’y attendre, les théoriciens sont divisés. L’idée des mondes multiples est populaire chez une partie des « cordistes», tandis que l’idée que la physique quantique révèle une structure relationnelle de la réalité a plutôt les faveurs des partisans de la théorie des boucles, historiquement plus proche de la relativité générale, laquelle a déjà un fort contenu «  relationnel».

Un petit nombre de théoriciens explorent aussi l’idée que la connexion entre les deux problèmes puisse être plus profonde. Par exemple, le physicien et mathématicien bri- tannique Roger Penrose a suggéré que la réduction dynamique puisse être un phéno- mène d’origine gravitationnel. Cette idée repose sur un fait étrange et intrigant : l’échelle de longueur naturellement associée à la gravitation quantique (la « longueur de Planck ») est extrêmement petite et l’échelle d’énergie (l’« énergie de Planck ») est extrê- mement grande, mais l’échelle de masse natu- rellement associée à la gravitation quantique (la «  masse de Planck ») est de l’ordre du microgramme, valeur curieusement proche de celle qui distingue les systèmes « petits » (où les effets quantiques sont manifestes) des systèmes «  grands », au comportement clas- sique, non quantique. S’agit-il d’une coïnci- dence ou de l’indice d’un lien profond entre la gravitation et le problème de l’interpréta- tion de la physique quantique ? Nous ne le savons pas encore.

UNE NOUVELLE GÉNÉRATION D’EXPÉRIENCES

Des indices utiles pourraient venir d’expé- riences en laboratoire qui sont à l’étude et seront peut-être réalisées dans un futur proche. Trois équipes ont ainsi récemment proposé des protocoles qui mettront à l’épreuve la nature quantique de la force gra- vitationnelle. Le groupe autour de Markus Aspelmeyer, de l’université de Vienne, en Autriche, et Sugato Bose, de l’University College, à Londres, et indépendamment Chiara Marletto et Vlatko Vedral, de l’univer- sité d’Oxford, ont proposé des expériences capables de mettre en évidence une superpo- sition quantique de deux géométries diffé- rentes de l’espace-temps.

L’idée est d’observer l’intrication quan- tique de deux particules après avoir mis cha- cune d’elles dans une configuration qui serait la superposition quantique de deux positions différentes. L’intrication serait alors causée par la superposition quantique de deux ver- sions de la géométrie de l’espace-temps, dues aux différentes positions des particules.

Si l’expérience devait montrer que l’espace- temps ne peut pas se mettre dans une super- position quantique d’états, cela indiquerait une relation nouvelle et profonde entre gravi- tation et quantique, peut-être dans le prolon- gement des idées suggérées par Roger Penrose. Si, au contraire, dans le cas que nous pensons le plus probable, l’effet d’intrication est observé, alors celui-ci témoignerait que notre monde n’est pas dessiné sur la toile d’un espace-temps donné: il serait lui-même sujet aux mystères de la physique quantique. n

UN MONDE TOUJOURS PLUS QUANTIQUE…

L’intrication quantique défie l’intuition physique classique. Elle établit un lien instantané entre deux particules (en rouge et en bleu) même si elles sont très distantes l’une de l’autre.

Pas d’échappatoire pour l’intrication

Pas d'échappatoire pour l’intrication Einstein pensait que l’intrication quantique s’expliquait par l’existence de variables cachées respectant un principe de localité. Il n'en est rien : des expériences récentes le prouvent.

L’ESSENTIEL ? En 1964, le physicien John Bell a montré comment tester la nature de l’intrication quantique, phénomène par lequel deux particules conservent un lien « fantomatique» même quand elles sont très éloignées l’une de l’autre. ? Pour Einstein, l’intrication était la preuve que la physique quantique était incomplète: des « variables cachées locales» expliqueraient le phénomène. ? Plusieurs équipes ont mis en œuvre le test de Bell. Les résultats semblaient

écarter l’hypothèse des variables cachées et conftrmaient les prédictions de la physique quantique. Mais ces expériences comportaient des failles (ou « échappatoires»), qui ne permettaient pas d’éliminer complètement l’hypothèse de variables cachées agissant en coulisses. ? Finalement, en 2015, plusieurs groupes ont réalisé les premiers tests de Bell sans échappatoire, qui excluent déftnitivement toute explication par des variables cachées locales.

LES AUTEURS

RONALD HANSON est physicien à l’université de technologie de Delft, aux Pays-Bas.

KRISTER SHALM est physicien au NIST (Institut américain des normes et de la technologie) et à l’université du Colorado à Boulder.

ertaines révolutions débutent discrètement. Ce fut le cas de celle entamée en 1964, lorsque le physicien nord-irlandais John Bell, alors au Cern, expliqua comment répondre à une ques- tion profonde qui avait beaucoup préoccupé les fondateurs de la physique quantique. Il s’agis- sait de savoir si des particules séparées par de grandes distances conservent un lien tel que des mesures effectuées sur l’une influent instanta- nément sur l’autre. En physique classique, une telle influence est impossible, car aucun signal ne peut se propager plus vite que la lumière. Mais dans le cadre de la théorie quantique, cela semble être le cas. Grâce aux inégalités mathé- matiques qu’il a trouvées, Bell a ouvert la pos- sibilité de sonder la nature de ce lien.

Cinquante ans plus tard, les idées de Bell ont profondément changé notre vision de la théorie quantique. Et les physiciens se sont inspirés du test de Bell pour inventer de nouvelles techno- logies. Pourtant, ce n’est qu’en 2015 que les scientifiques ont réussi à vérifier les prédictions du théorème de Bell de la façon la plus complète qui soit. Ces expériences marquent la fin d’une longue quête et le début d’une nouvelle ère dans le développement d’applications quantiques.

Pour comprendre ce que Bell a fait, revenons aux racines de la physique quantique, cette théo- rie décrivant le comportement de la lumière et de la matière aux plus petites échelles. L’une des principales différences est que les atomes, les électrons et les autres particules subatomiques existent dans des états marqués du sceau de l’incertitude. Prenez par exemple le spin d’un électron, une propriété purement quantique correspondant à un moment cinétique intrin- sèque. Si un électron dont le spin est orienté horizontalement traverse un champ magnétique orienté verticalement, le spin basculera vers le haut avec une probabilité de 50%, et vers le bas avec une probabilité de 50 %, le résultat étant aléatoire par nature.

Comparez cela à une pièce que l’on tire à pile ou face. Nous sommes tentés de penser que le lancer de pièce est aussi aléatoire, mais si nous connaissions précisément la masse de la pièce, la force employée pour la lancer, les détails des courants d’air qui l’atteignent… nous pourrions prédire comment la pièce va retomber. Le carac- tère aléatoire provient dans ce cas d’un manque d’information sur le système. UN ALÉA FONDAMENTAL

Pour le spin de l’électron, c’est une tout autre affaire. Même si nous connaissons parfai- tement toutes les propriétés de l’électron et de son spin avant qu’il ne traverse le champ magnétique, l’incertitude quantique nous empêche de prévoir de quel côté le spin bascu- lera. Avec un spin initial horizontal, l’électron est dans une superposition à poids égaux des états de spin « haut» et « bas». Si une mesure est réalisée sur l’électron selon l’axe vertical, cette superposition cesse d’exister : elle se réduit à l’un de ses termes et l’on obtient un résultat unique; on mesure un spin orienté soit vers le haut, soit vers le bas.

Quand les physiciens ont développé la théo- rie quantique au début du xxe siècle, certains de ses fondateurs, comme Albert Einstein et Erwin Schrödinger, étaient gênés par le flou des états quantiques. Selon eux, la nature ne peut pas être vraiment floue, et une théorie allant au-delà de la physique quantique devrait prédire exacte- ment le comportement des particules. Il serait alors possible de prévoir le résultat d’une mesure du spin de l’électron de la même façon qu’il est possible de savoir comment une pièce va retom- ber si vous détenez assez d’information.

Plus surprenant encore, une superposition d’états peut s’étendre sur deux particules ou plus, un phénomène que Schrödinger a nommé «intri- cation». D’après la théorie quantique, les proprié- tés des particules peuvent être intriquées de telle façon que leur valeur d’ensemble soit bien connue, mais que les valeurs individuelles restent complètement incertaines – un peu comme si l’on avait deux dés spéciaux qui, quand on les lance, donneraient chacun un résultat aléatoire, mais dont la somme serait toujours égale à 7.

Einstein, Boris Podolsky et Nathan Rosen ont analysé les conséquences de l’intrication et ont publié en 1935 un article (voir Une efficacité déraisonnable?, par E. Klein, page 16)dans lequel ils concluent que la théorie quantique est incomplète. Ils ont suggéré qu’il serait possible de résoudre cette contradiction en complétant la théorie par des variables supplémentaires inaccessibles pour Alice et Bernard (on parle de variables cachées). En d’autres termes, il existerait une théorie plus fondamentale que la physique quantique où les électrons ont des propriétés supplémentaires. Celles-ci décri- raient comment les électrons se comportent lorsqu’on les mesure conjointement. Si nous y avions accès à ces variables cachées, nous pour- rions prédire ce qui arriverait aux électrons. Le flou apparent des particules quantiques

résulterait ainsi de notre ignorance. Pour dési- gner cet éventuel successeur de la physique quantique, on parle de « théorie locale à variables cachées». Le qualificatif « local» se réfère au fait que les signaux cachés ne peuvent se propager plus vite que la lumière.

Pour les défenseurs de la physique quan- tique, tel le Danois Niels Bohr, celle-ci était complète et l’intrication ne créait pas de contra- diction, considérant que la physique quantique est non locale par nature.

Einstein ne mettait pas en doute les prédic- tions de la physique quantique elle-même ; il pensait qu’il existait une vérité plus profonde qui gouverne la réalité. Après l’article EPR de 1935, l’intérêt pour ces questions fondamentales posées par la physique quantique est retombé. La possibilité des variables cachées a été consi- dérée comme une question philosophique sans importance pratique, car on pensait que les pré- dictions des théories avec ou sans variables cachées seraient identiques. Mais tout cela a changé en 1964, quand Bell a montré que dans certaines circonstances, les prédictions des théo- ries à variables cachées diffèrent de celles de la physique quantique. Il serait possible de tester avec une expérience si des variables cachées existent et expliquent l’intrication quantique.

BELL RELANCE LE DÉBAT

Bell a reconsidéré l’expérience de pensée EPR, mais avec une petite variante qui change la donne: il laissait Alice et Bernard mesurer le spin de leurs électrons respectifs dans n’importe quelle direction. Dans l’expérience de pensée initiale, Alice et Bernard mesurent les spins selon le même axe et trouvent donc des résultats anticorrélés à 100%: ainsi, pour l’axe vertical, si Alice mesure «haut», alors Bernard mesure tou- jours « bas», et inversement. En revanche, si Alice et Bernard mesurent le long d’axes diffé- rents, les corrélations entre les résultats sont plus complexes, et c’est là qu’apparaissent les différences entre la théorie quantique et les théories à variables cachées.

Bell a montré que pour certains ensembles de directions, les corrélations entre les mesures d’Alice et de Bernard seraient plus fortes en phy- sique quantique que dans toute théorie locale à variables cachées. Mathématiquement, ces dif- férences s’expriment par les «inégalités de Bell». Elles sont dues au fait que les variables cachées ne peuvent pas s’influencer plus vite que la vitesse de la lumière, et sont donc moins effi- caces pour coordonner leurs efforts: les corréla- tions sont limitées. En physique quantique, les spins de deux électrons intriqués existent conjointement dans un unique état qui peut s’étendre sur de longues distances. Grâce à l’in- trication, la théorie quantique prédit des corré- lations jusqu’à 40% plus fortes que celles des théories à variables cachées. >

> Le théorème de Bell fournit ainsi des inéga- lités qui posent une limite supérieure aux cor- rélations qu’il est possible d’avoir dans n’importe quelle théorie locale à variables cachées. Si les données expérimentales dépassent cette limite (si elles «violent» les inégalités de Bell), cela signifie que les théories à variables cachées ne décrivent pas la nature.

Peu après la publication de Bell, le physicien John Clauser, de l’université de Californie à Berkeley, et ses collègues ont trouvé des inéga- lités similaires, mais plus faciles à tester dans des expériences. Les chercheurs ont effectué les premières mesures à la fin des années 1960, et, depuis, les expériences n’ont cessé de se rappro- cher du dispositif idéal proposé par Bell. Les expériences ont trouvé des corrélations qui violent l’inégalité de Bell, ce qui éliminait les théories locales à variables cachées. Mais jusqu’en 2015, toutes ces expériences repo- saient sur une ou plusieurs hypothèses ad hoc à cause d’imperfections des dispositifs. Ces hypo- thèses comportaient des failles que les théories locales à variables cachées pouvaient en principe exploiter pour réussir le test.

Dans presque toutes les expériences de ce type au xxe siècle, les scientifiques ont produit des photons intriqués à partir d’une source, et les ont envoyés dans des stations de mesure (représentant Alice et Bernard). Ces dernières enregistraient la polarisation d’un photon de la paire, c’est-à-dire la direction dans laquelle oscille le champ électrique du photon. Les chercheurs calculaient alors les corrélations moyennes entre les résultats des deux stations et examinaient si les inégalités de Bell étaient respectées ou violées.

Dans les premières expériences, les mesures étaient effectuées selon des directions fixes. Dans ce cas, une interaction avait le temps de s’établir entre les dispositifs et créer d’éventuelles corrélations. Autrement dit, des signaux cachés indiqueraient à Bernard, sans voyager plus vite que la lumière, quelle direc- tion Alice a utilisée pour mesurer son photon. Cette « échappatoire (ou faille) de localité » signifie qu’une théorie locale à variables cachées obtiendrait les mêmes corrélations que la théorie quantique.

En 1982, Alain Aspect, de l’Institut d’optique, à Orsay, et ses collègues ont effectué un test amé- lioré dans lequel les photons étaient envoyés à deux extrémités d’une pièce. Pendant que ces photons intriqués étaient en vol, l’angle de pola- risation du dispositif de mesure changeait pério- diquement. À la fin des années 1990, Anton Zeilinger, aujourd’hui à l’université de Vienne, et son équipe ont perfectionné cette stratégie en utilisant des directions de mesure de polarisation vraiment aléatoires (et non simplement pério- diques) et déterminées juste avant que les mesures n’aient lieu. Si les signaux cachés

existent, ils devraient se propager plus vite que la lumière pour influer sur ces mesures. La faille de localité était hermétiquement comblée.

Mais ces expériences présentaient un inconvénient de taille: il est difficile de travail- ler avec des photons, particules qui peuvent se perdre en vol ou tout simplement ne pas être vues par les détecteurs. La plupart du temps, une mesure ne donnait pas de résultat, car les photons se perdaient en chemin. Les expéri- mentateurs étaient obligés d’éliminer les mesures ratées et de supposer que les mesures réussies étaient représentatives de l’ensemble des paires intriquées (l’«hypothèse d’échantil- lonnage sans biais »). Sans cette supposition, il est impossible de garantir que l’ajout des pho- tons perdus ne donne pas un résultat compa- tible avec les théories à variables cachées.

ÉLIMINER LES FAILLES

Les scientifiques ont éliminé cette échap- patoire de détection au début de ce siècle, en abandonnant les photons au profit d’autres systèmes intriqués et mesurés avec une bonne efficacité: des ions piégés, des atomes et des circuits supraconducteurs. Le problème est que, dans ces cas, les contraintes techniques imposaient que les particules soient assez proches, ce qui laissait ouverte la faille de loca- lité. Un test de Bell pour lequel toutes les échappatoires seraient supprimées est devenu l’un des grands défis de la science quantique.

Grâce aux progrès réalisés dans le contrôle et la mesure des systèmes quantiques, il est devenu possible en 2015 d’effectuer un test de Bell avec un dispositif idéal, un test de Bell sans échappatoire. En fait, en peu de temps, quatre groupes différents de physiciens ont trouvé des résultats violant les inégalités de Bell tout en éli- minant les deux échappatoires. Ces expériences ont ainsi fourni des preuves indiscutables qui réfutent les théories locales à variables cachées.

TÉLÉPORTATION D’INTRICATION

L’un d’entre nous (Ronald Hanson) a effec- tué avec ses collègues la première expérience éliminant toutes les échappatoires à l’université de technologie de Delft, aux Pays-Bas (voir la photo ci-dessus et l’encadré page suivante). Nous avons intriqué les spins de deux électrons pré- sents chacun dans un défaut cristallin d’un dia- mant, c’est-à-dire dans un site où il manque un atome de carbone. Les deux électrons intriqués étaient dans des laboratoires situés de part et d’autre du campus, et pour être sûrs qu’aucune communication n’était possible entre les deux, nous avons utilisé un générateur de nombres aléatoires rapide pour sélectionner la direction de mesure. Cette mesure était finalisée et enre- gistrée localement sur un disque dur avant que

la moindre information concernant la mesure de l’autre côté n’ait eu le temps d’arriver, même à la vitesse de la lumière. Un signal caché indiquant à l’un des dispositifs de mesure la direction uti- lisée par l’autre n’aurait pas eu le temps de faire le trajet entre les deux laboratoires: on contrôlait ainsi entièrement la faille de localité.

Ce chronométrage strict a imposé de séparer les deux électrons de plus de 1 kilomètre, une distance supérieure de deux ordres de grandeur aux précédents records mondiaux pour des par- ticules intriquées. Comment intriquer des élec- trons sur une telle distance? Nous avons utilisé une technique nommée «téléportation d’intrica- tion», où l’on commence par intriquer chaque électron avec un photon. Nous envoyons alors les photons à la rencontre l’un de l’autre, à mi-chemin des deux laboratoires. Ils se retrouvent sur un miroir semi-réfléchissant où nous avons placé des détecteurs de chaque côté. Si nous détectons les photons sur des côtés opposés du miroir, alors les spins des électrons intriqués avec chaque photon deviennent eux-mêmes intriqués. En d’autres termes, l’intrication entre les électrons et les pho- tons est transférée aux deux électrons.

Ce processus de transfert échoue souvent, car les photons se perdent entre les diamants et le miroir, comme dans les expériences précé- dentes. Mais nous ne lançons un test de Bell que si les deux photons sont détectés; ainsi, nous >

Vue d’ensemble du campus de l’université de Delft, aux Pays-Bas, où Ronald Hanson et ses collègues ont réalisé leur expérience du test de Bell sans faille. Les stations (à gauche et en haut à droite) hébergent les cristaux au sein desquels des électrons peuvent être intriqués à distance par l’intermédiaire de photons qu’ils émettent. Les stations sont distantes de 1 280 mètres, mais sont reliées à une station intermédiaire qui assure la bonne réception et l’intrication des photons émis par les deux cristaux.

UN MONDE TOUJOURS PLUS QUANTIQUE…ÉLIMINER TOUTES LES ÉCHAPPATOIRES

La physique quantique décrit un univers qui entre en conflit avec notre intuition de la réalité. Certains scientifiques, en particulier Albert Einstein, ont espéré que des théories alternatives incluant des variables dites « cachées », qui agissent en coulisses, feraient disparaître certaines des implications les plus déroutantes de la théorie quantique. Jusque récemment, aucune expérience n’a pu exclure de façon indiscutable les variables cachées locales, mais la donne a changé en 2015.

Mais la théorie quantique brosse de la réalité un tableau beaucoup plus étrange que cela.

S e l o nl ap h y s i q u eq u a n t i q u e ,u n ep a r t i c u l ep e u tê t r ed a n sd e u xé t a t s àl af o i s( d a n su n es u p e r p o s i t i o nd ’ é t a t s ) .

Par exemple, une pomme quantique…

… peut ne pas être rouge ou…

… jaune mais… … une superposition des deux.

Pas d’échappatoire pour l’intrication

Le test de Bell : Deux observateurs feraient des mesures séparées de deux particules censées être intriquées. Bell a calculé la corrélation maximale qu’il pourrait y avoir entre les mesures des deux observateurs si des variables locales, limitées par la vitesse de la lumière, étaient impliquées.

En 2015, plusieurs groupes de scientifiques ont conçu des versions du test de Bell qui éliminent les deux échappatoires. L’une d’elles, à l’université de technologie de Delft, a pour point de départ deux minuscules diamants.

Les électrons sont dotés d’un spin…

1. Faille de localité Les stations de mesure sont assez proches pour que les deux particules s’échangent des signaux à des vitesses inférieures à la lumière pendant le test.

Dans le réseau cristallin presque parfait du diamant, il existe occasionnellement un défaut : un atome d’azote.

Dans certains endroits, à côté d’un tel atome d’azote, il manque un atome de carbone, un « défaut » qui se comporte comme un piège à électrons.

2. Faille de détection Les détecteurs ne peuvent mesurer qu’une partie des particules intriquées.

É l e c t r o n

Azote

Haut Bas

Ou en superposition, à la fois haut et bas

des électrons.

Électron

Photon

Intrication

Photon

In tri ca ti o n Él e ct ro n

Quand les photons se rencontrent, ils s’intriquent. Par extension, leurs électrons respectifs (qui sont plus faciles à détecter et mesurer que les photons) s’intriquent eux aussi.

Miroir

Photons

P o u rl ap r e m i è r ef o i s ,u nt e s td eB e l ls a n sf a i l l eÀD e l f t ,l e sp h y s i c i e n so n te f f e c t u é2 4 5m e s u r e sp o r t a n ts u ru n ep a i r ed ’ é l e c t r o n si n t r i q u é s . I l so n tm e s u r él e u r ss p i n sd a n sc h a q u ec a se to n tt r o u v éq u e8 0%é t a i e n tc o r r é l é s ,

Détecteur

intriqués

s o i tb e a u c o u pp l u sq u ’ o nn ’ o b t i e n d r a i ta v e cd e sv a r i a b l e sc a c h é e sl o c a l e s .D ’ a u t r e se x p é r i e n c e so n td o n n éd e sr é s u l t a t ss i m i l a i r e s .

> traitons la perte de photons en amont. De cette façon, nous éliminons la faille de détection, parce que nous n’excluons aucun résultat des tests de Bell sur des électrons intriqués. La perte de photons liée à la grande distance de sépara- tion ne limite donc pas la qualité de l’intrication, mais, en revanche, elle réduit de façon drastique le nombre d’événements à notre disposition pour le test de Bell – quelques-uns par heure.

Après plusieurs semaines de mesures en juin 2015, nous avons trouvé que l’inégalité de Bell était violée à hauteur de 20%, en accord avec les prédictions de la théorie quantique. La proba- bilité d’obtenir par hasard un tel résultat dans le cadre d’un modèle à variables cachées locales (et en admettant que les dispositifs aient conspiré en utilisant toutes les données disponibles) était de 3,9%. Lors d’une deuxième série de mesures en décembre 2015, nous avons trouvé un taux simi- laire de violation des inégalités de Bell.

La même année, trois autres groupes ont effectué des tests de Bell sans échappatoire. En

septembre, l’équipe de l’institut américain des normes et de la technologie (NIST), dirigée par l’un d’entre nous (Krister Shalm), et celle d’Anton Zeilinger ont utilisé des photons intri- qués. Peu après, Harald Weinfurter, de l’uni- versité Ludwig-Maximilian, à Munich, et ses collègues ont utilisé des atomes de rubidium distants de 400 mètres dans un protocole simi- laire à celui du groupe de Ronald Hanson.

Les équipes du NIST et de Vienne ont intri- qué les états de polarisation de deux photons au moyen de lasers intenses dirigés sur un matériau cristallin particulier. Très rarement (environ une fois pour 1 milliard de photons pénétrant dans le cristal), un photon émis par un laser interagissait d’une façon particulière en donnant naissance à une paire de photons dont les états de polarisa- tion étaient intriqués. Avec des lasers assez puis- sants, les chercheurs ont produit des dizaines de milliers de paires de photons intriqués par seconde. On envoyait alors ces photons vers des stations séparées (de 184 mètres dans

LIBRE ARBITRE ET SUPERDÉTERMINISME

n 2015, plusieurs équipes, dont celles des auteurs, ont réalisé

les premiers tests de Bell prenant en compte à la fois la faille de localité et celle de détection. Elles ont conclu que la physique quantique est complète et fondamentalement non locale. Mais la nature peut-elle encore comploter pour truquer ces résultats ? Il existe en effet une autre échappatoire : la faille de libre arbitre de l’expérimentateur sur le réglage des dispositifs de mesure. Il est envisageable que des variables cachées ou un autre phénomène du passé aient une action causale sur la configuration des détecteurs. Si les choix des physiciens pour l’orientation des polariseurs sont

Lors d’une expérience sur le test de Bell, une équipe de physiciens a utilisé la lumière de plusieurs étoiles de la Voie lactée pour choisir la configuration des détecteurs de leur expérience.

limités d’une façon ou d’une autre, les résultats seraient biaisés. Dans les expériences de 2015, les chercheurs écartaient cette hypothèse en supposant que, si variables cachées il y a, elles n’émergent qu’avec la paire de photons intriqués et ne peuvent donc pas influer causalement sur les systèmes de détection. Cependant, le formalisme sous-jacent aux inégalités de Bell ne précise pas où et quand les variables cachées intervenant dans l’expérience seraient créées. Pour écarter cette hypothèse d’un « complot de la nature » sur la configuration des détecteurs, l’idée est de définir la direction de polarisation mesurée par les instruments à partir d’événements survenus dans un passé

lointain, comme la lumière émise par des étoiles distantes. En 2017, Anton Zeilinger et son équipe, à l’université de Vienne, ont utilisé une source de photons intriqués envoyés vers deux détecteurs distants de plus de 1 kilomètre. La configuration des deux polariseurs est contrôlée par deux télescopes pointant chacun sur une étoile distante de plus de 500 années-lumière. Les photons captés en provenant d’une telle étoile et émis il y a plusieurs centaines d’années ont une longueur d’onde propre. Cette dernière est utilisée pour sélectionner une des deux configurations possibles pour chaque instrument, selon qu’elle est supérieure à 700 nanomètres (« rouge »), ou inférieure (« bleue »). Les mesures conduisent à une violation des inégalités

de Bell, tout en contrôlant en partie la faille de libre arbitre. En effet, si un mécanisme impliquant les variables cachées a exploité cette échappatoire, il doit avoir agi il y a plus de 500 ans ! En utilisant des sources lumineuses de plus en plus lointaines – étoiles, quasars ou même le fond diffus cosmologique – il sera possible de repousser d’autant les limites sur cette échappatoire. Cependant, la faille ne pourra jamais être complètement éliminée… En poussant à l’extrême ce raisonnement, cela conduit à l’idée de superdéterminisme, qui suppose l’absence totale de libre arbitre dans un monde où tout est prédéterminé depuis le début de l’Univers. Cependant, la plupart des physiciens rejettent cette idée, qui n’est pas réfutable.

Pas d’échappatoire pour l’intrication

l’expérience du NIST, de 60 mètres dans l’expé- rience de Vienne) où l’on mesurait les états de polarisation. La direction de mesure était décidée pendant le temps de vol des photons, ce qui éli- minait la faille de localité.

Pour la faille de détection, il fallait récupérer plus des deux tiers des photons intriqués pour que l’on soit sûr d’avoir un échantillon représen- tatif. Au NIST, nous avons développé des détec- teurs de photons uniques ultraperformants et constitués de matériaux supraconducteurs froids. Ces capteurs sont capables d’observer plus de 90% des photons qui les atteignent. La faille de détection était ainsi supprimée.

En répétant plus de 100000 fois par seconde ces mesures, nous avons très vite accumulé des résultats statistiques significatifs sur les corréla- tions entre les états de polarisation des photons; les corrélations observées dans les deux expé- riences étaient beaucoup plus fortes que celles prédites par les théories à variables cachées. De fait, la probabilité que les résultats du NIST soient le fruit du hasard est de l’ordre de un mil- liardième, et les chances sont encore plus faibles avec l’expérience viennoise. Aujourd’hui, le groupe du NIST utilise une version améliorée du dispositif pour violer les inégalités de Bell à un degré similaire en moins d’une minute, et des perfectionnements attendus accéléreront encore le processus de deux ordres de grandeur. DES GÉNÉRATEURS D’ALÉA

Ces expériences nous obligent à conclure que tous les modèles à variables cachées, tels ceux que soutenait Einstein, sont incompa- tibles avec la nature. Les corrélations que nous avons observées entre particules défient notre intuition, et nous démontrent que la fantoma- tique action à distance a bien lieu.

Nos résultats mettent aussi en avant la remarquable puissance de l’intrication pour d’éventuelles applications. À court terme, une situation où des tests de Bell sans faille seraient utiles est la génération de nombres aléatoires. De nombreuses techniques de cryptographie reposent sur la capacité à produire des nombres aléatoires. Or, en pratique, ces derniers sont difficiles à produire. Les générateurs de nombres aléatoires sont loin d’être infaillibles et s’il est possible d’anticiper les nombres qu’ils produisent, de nombreux systèmes financiers et de communication seraient en danger. Une bonne source de nombres aléatoires est donc d’une importance cruciale.

Pour générer des nombres aléatoires, on recourt le plus souvent à des algorithmes ou à des processus physiques. Avec les algorithmes, si l’on connaît les paramètres utilisés comme valeurs initiales, il est souvent possible de pré- dire le résultat. Avec les processus physiques, une compréhension détaillée de la physique sous-jacente du système est nécessaire. Il suffit

qu’un détail vous échappe, et un pirate exploi- tera cette faille. L’histoire de la cryptographie regorge d’exemples de générateurs de nombres aléatoires des deux types qui ont été cassés.

La physique quantique est une aubaine pour ces applications. Il est possible d’« extraire» le hasard inhérent aux processus quantiques afin de produire des nombres véritablement aléa- toires. On peut convertir les corrélations mesu- rées dans un test de Bell sans échappatoire en une chaîne de nombres aléatoires. En 2018, l’équipe du NIST a utilisé son dispositif pour produire 1 024 bits véritablement aléatoires à partir de 10 minutes de données expérimen- tales. La violation des inégalités de Bell garantit que la chaîne de bits est aléatoire.

Il est possible de quantifier la robustesse du système: il y a une chance sur 1 billion que la chaîne de bits du NIST ne soit pas parfaite- ment aléatoire. En comparaison, il faudrait plusieurs centaines de milliers d’années à un générateur classique de nombres aléatoires pour acquérir assez de données assurant une telle qualité d’aléa. Les chercheurs travaillent maintenant à développer un outil public

le générateur servirait de source de référence de nombres aléatoires datés et transmis sur inter- net à intervalles fixes pour être utilisés dans des applications de sécurité.

Plus généralement, les techniques dévelop- pées dans les expériences de Bell sans faille rendraient possibles le déploiement de nou- veaux types de réseaux de communication (voir Inventer l’internet du futur, par N. Wolchover, page 96). De tels réseaux, qui constituent ce que l’on appelle souvent l’« internet quantique», effectueraient des tâches dépassant les capaci- tés des réseaux classiques. Un internet quan- tique garantirait des communications sécurisées, la synchronisation des horloges, et bien d’autres tâches sensibles.

De tels projets reposent sur l’intrication quantique et la qualité des dispositifs, comme dans nos expériences. En 2017, l’équipe de Delft a fait la démonstration d’une méthode pour améliorer la qualité des spins intriqués, et en 2018, elle a amélioré ses taux d’intrication de trois ordres de grandeur. En s’appuyant sur ces progrès, les chercheurs travaillent au dévelop- pement d’une première version rudimentaire d’un internet quantique qui devrait être déployé en 2020 dans quelques villes des Pays-Bas.

Il y a quatre-vingts ans, quand la théorie quantique faisait ses débuts, les sceptiques se chagrinaient de sa contradiction apparente avec des siècles d’intuition physique. Désormais, quatre expériences ont asséné le coup final à cette intuition; mais, en même temps, ces résul- tats ont ouvert une porte pour exploiter la nature d’une façon que ni Einstein ni Bell n’avaient anti- cipée. La révolution silencieuse que John Bell a mise en branle bat maintenant son plein. n

BIBLIOGRAPHIE

J. MALDACENA, L’intrication quantique est-elle un trou de ver?, Pour la Science, n° 475, mai 2017. B. HENSEN ET AL., Loophole-free Bell inequality violation using electron spins separated by 1.3 kilometers, Nature, vol. 526, pp. 682-686, 2015. M. GIUSTINA ET AL., Signiftcant- loophole-free test of Bell’s theorem with entangled photons, Phys. Rev. Lett., vol. 115, art. 250401, 2015. L. K. SHALM ET AL., Strong loophole-free test of local realism, Phys. Rev. Lett., vol. 115, art. 250402, 2015.

L’ESSENTIEL ? À quoi ressemble la frontière entre les mondes microscopique et macroscopique? Plusieurs théories s’affrontent pour répondre. ? L’une d’elles met au centre du jeu l’action de mesurer, et une autre, l’influence de l’environnement.

? Une troisième, la localisation spontanée continue, suggère que les probabilités quantiques se réduisent aléatoirement pour devenir des certitudes classiques. ? Des expériences, parfois empruntées aux cosmologistes, aideront à tester ces différentes théories.

L’AUTEUR

TIM FOLGER est journaliste scientiftque.

Un pont entre deux mondes Le monde quantique est un univers bien étrange où règnent en maîtres les probabilités. Pourtant, ce n’est pas le cas de notre réalité quotidienne, apparemment bien loin de ces bizarreries. Comment passe-t-on de l’un à l’autre ? De nouvelles expériences tentent de répondre.

imon Gröblacher a la folie des grandeurs. Avec son équipe de l’université de technologie de Delft, aux Pays-Bas, il n’a de cesse de vouloir faire grossir ses créations! Et il le clame: « Nous essayons de créer des choses grandes, très grandes.» Encore faut-il s’entendre sur le terme… car l’une de ses œuvres ne mesure que

quelques micromètres de longueur – à peine plus qu’une bactérie – et 250 nanomètres d’épaisseur, soit un millième de l’épaisseur d’une feuille de papier. Et pour ce physicien, « très grand» signifie « 1 millimètre par 1 milli- mètre». C’est à peine visible à l’œil nu!

En travaillant à cette échelle, ce scienti- fique espère répondre à une question extraor- dinaire : un objet macroscopique peut-il se trouver en deux endroits à la fois? Cette ubi- quité est en fait la norme pour les atomes, les photons et toutes les autres particules. Plus encore, dans ce monde de l’infiniment petit, ce monde où la physique quantique règne, la réa- lité défie le sens commun: les particules n’ont ni position ni énergie fixe et ne possèdent aucune propriété définie – du moins tant que personne ne les observe. Elles existent simul- tanément en de nombreux états superposés.

Mais pour des raisons encore mal com- prises, la réalité que nous percevons est diffé- rente. Notre monde semble résolument non >

> quantique. Les grandes choses – c’est-à-dire à partir de la taille d’un virus – se manifestent toujours en un seul endroit. Tout le mystère est là : tout objet étant constitué de matière et d’énergie qui obéissent aux lois quantiques, pourquoi n’expérimentons-nous pas l’étran- geté quantique ? En d’autres termes, où le monde quantique s’arrête-t-il et où commence le monde classique? Y a-t-il un fossé entre les deux, un seuil à partir duquel les effets quan- tiques cessent de se manifester ? Ou bien sommes-nous aveugles à une mécanique quan- tique qui régnerait à toutes les échelles?

De fait, «nous ignorons la véritable nature de la matière entre les mondes micro et macro», avoue Angelo Bassi, chercheur en physique théo- rique à l’université de Trieste, en Italie. Ce no man’s land laisse les physiciens perplexes depuis la naissance de la théo- rie quantique il y a un siècle. Mais ces dernières années, Simon Gröblacher et d’autres ont mis sur pied des expé- riences extrêmement sensibles qui pourraient révéler les secrets de la tran- sition du quantique vers le quotidien. Nul ne sait si ces efforts porteront leurs fruits, mais une chose est sûre: en son- dant les contours flous du monde quan- tique, les chercheurs pourraient bien mettre au jour un tout nouveau domaine de la physique. UN PROBLÈME DE MESURE

Ces paradoxes d’échelles n’em- pêchent pas la mécanique quantique d’être la théorie scientifique la plus puissante et exigeante jamais élaborée. Ses prédictions coïncident avec les expériences avec une précision ridicule élevée. En révolutionnant notre com- préhension de la structure atomique, elle a transformé toutes les facettes de la science, de la biologie à l’astrophysique. Sans la théorie quantique, notre monde ne ressem- blerait pas à ce qu’il est, pas de GPS, pas de smartphone, pas de laser… Pourtant, la théorie présente un défaut flagrant, selon Stephen

SOMMES-NOUS AVEUGLES À UNE MÉCANIQUE QUANTIQUE QUI RÉGNERAIT À TOUTES LES ÉCHELLES?

d’emplacement, de vitesse ni d’énergie détermi- née, seulement des probabilités.

Tout change lors d’une mesure. À ce moment, des propriétés tangibles font surface, comme si elles étaient invoquées par la simple tentative de les observer. La théorie n’explique pas cette transformation, ni d’ailleurs pour- quoi une possibilité se manifeste plutôt qu’une des nombreuses autres. La mécanique quan- tique décrit ce qui pourrait arriver lorsque l’on effectue une mesure, mais pas ce qui va arriver. Autrement dit, la théorie ne fournit pas de mécanisme expliquant la transition du pro- bable vers l’avéré.

Pour que « les choses se produisent » en mécanique quantique, l’un des fondateurs de la théorie estime nécessaire une faille métaphysique. À la fin des années 1920, Werner Heisenberg a formulé puis dif- fusé l’idée selon laquelle le fait de mesu- rer « réduit le paquet d’onde » d’une particule: les nombreuses issues poten- tielles sont instantanément réduites à une seule, le résultat observé.

Le seul défaut de cette idée est que rien ne dit, dans les équations de la théo- rie quantique, qu’une réduction se pro- duit. Aucun processus physique connu ne l’explique. La solution de Heisenberg introduit en fait un nouveau mystère: que se passe-t-il exactement lors de la réduc- tion du paquet d’onde? De nos jours, cette énigme quantique est connue sous le nom de «problème de la mesure.»

Les physiciens se sont accoutumés à l’idée de réduction ces quatre-vingt-dix dernières années, mais ils ne l’ont jamais vraiment admise. L’idée qu’une action humaine – la mesure – joue un rôle cen- tral dans l’une des théories les plus fon- damentales sur le fonctionnement de l’Univers ne satisfait guère quiconque est par- tisan du concept de réalité objective. LE CHOIX DE L’INTERPRÉTATION «Fondamentalement, j’ai un idéal de ce que

Adler, de l’institut d’études avancées de Princeton, dans le New Jersey. « En mécanique quantique, rien ne se passe.» C’est-à-dire?

Le physicien se réfère à l’équation fondamen- tale de la théorie quantique quant à la nature de la réalité. Connues sous le nom de fonction d’onde, ces équations attribuent des probabilités à ce qu’un objet soit découvert dans tel ou tel état. Contrairement à la physique classique, ou newtonienne, selon laquelle les pommes, les pla- nètes et tout le reste ont toujours des propriétés bien définies, la physique quantique est intrinsè- quement probabiliste. Dans un sens, on ne peut pas dire que les particules décrites par des fonc- tions d’onde existent vraiment; elles n’ont pas

devrait être une théorie physique, concède Steven Weinberg, Prix Nobel de physique, à l’université du Texas à Austin. Ce devrait être quelque chose qui ne se réfère en aucune manière aux êtres humains. Ce devrait être une base à partir de laquelle tout le reste – y com- pris tout ce que vous pourriez dire systémati- quement sur la chimie, la biologie ou les affaires humaines – peut être dérivé. Les lois de la nature ne devraient pas commencer par un fac- teur humain. Et pourtant, je ne vois pas com- ment formuler la mécanique quantique sans un postulat interprétatif faisant référence à ce qu’il se passe lorsque des personnes choisissent de mesurer telle ou telle chose.» >

DES MONDES SÉPARÉS

La mécanique quantique est synonyme d’effets étranges dans le monde microscopique. Mais nous ne les observons pas dans la réalité « classique » macroscopique. Pourquoi ? Les scientifiques n’ont jamais compris pourquoi ni comment l’Univers saute d’un monde à l’autre, mais plusieurs théories, comme celles montrées ici, offrent d’éventuelles explications.

Quantique contre classique D’après la mécanique quantique, les particules n’existent pas dans un état défini – à tel ou tel endroit, ayant telle ou telle énergie – mais se trouvent en fait simultanément dans chacun de ces états et positions. La théorie décrit les particules avec des fonctions d’onde, des équations qui sont des combinaisons, ou des « superpositions », de plusieurs ondes. Par exemple, pour la position, l’amplitude de chaque pic dans une fonction d’onde indique la probabilité pour une particule d’être observé en un endroit donné, ici au point A ou B.

Effondrement et mesure L’une des théories qui visent à expliquer comment l’Univers passe du monde quantique au monde classique prétend que l’action de mesurer joue un rôle. Les particules peuvent s’attarder dans un état de superposition quantique (le pointillé jaune) tant que personne ne les observe. Mais dès que l’on effectue une mesure, la particule est « obligée de choisir» un état spécifique (lignes rouges). Comment cela se passe-t-il, et pourquoi les mesures peuvent- elles avoir tant d’importance en physique ? Cela reste un mystère.

Décohérence Une autre théorie estime que l’environnement d’une particule est responsable de cette transition du monde quantique vers le monde classique. Tant qu’une particule n’est pas perturbée par une influence extérieure, pense- t-on, elle peut rester en état de superposition. Mais dès lors que les fonctions d’onde d’autres particules ou objets voisins rencontrent la sienne, elles interfèrent, ce qui entraîne la réduction des nombreuses possibilités quantiques de la particule à une seule réalité classique.

Quand les scientifiques effectuent des mesures sur une particule, toutes les possibilités quantiques semblent se réduire à une seule, vraisemblablement déterminée aléatoirement. L’expérience révélera que la particule se trouve au point A, par exemple, ce qui la fait entrer dans le monde classique, puisqu’elle cesse d’exister dans un état de superposition.

Monde classique

A B

Monde quantique

Localisation spontanée continue Une autre possibilité serait que la réduction de la fonction d’onde en une possibilité singulière soit un événement aléatoire, qui ne serait pas causé par la mesure ni par l’interférence de l’environnement. Les probabilités que n’importe quelle particule se réduise à n’importe quel moment sont extrêmement faibles, mais dans les objets macroscopiques qui contiennent une multitude d’atomes, la réduction d’au moins l’une de ces particules est inévitable, ce qui engendre la réduction de la structure entière.

> Un tour de passe-passe permet de s’extir- per du problème de la mesure : il consiste à présumer que le phénomène de réduction n’a pas lieu. Au début des années 1970, Heinz- Dieter Zeh, aujourd’hui professeur émérite à l’université de Heidelberg, en Allemagne, a proposé un processus qui donne l’apparence de la réduction tout en préservant la multipli- cité quantique de la fonction d’onde.

Il fait valoir que, dans le monde réel, la fonction d’onde de n’importe quelle particule observée s’enchevêtre avec celle de tout ce qui se trouve dans son environnement, rendant impossible le suivi des innombrables interac- tions quantiques qui se produisent autour de nous. En termes quan- tiques, les fonctions d’onde deviennent intri-

intriquée qui ne cesse de s’élargir. Stephen Adler se montre un peu plus direct à propos de la décohérence: « Elle ne fournit aucun méca- nisme [pour la réduction]. Elle ne résout pas le problème, point final.»

Il y a soixante ans, un étudiant de l’univer- sité de Princeton proposa une solution encore plus radicale au problème de la réduction. Dans sa thèse de 1957, Hugh Everett expliquait que la fonction d’onde ne se réduit ni ne subit une décohérence. Au contraire, tous ses composants sont physiquement réels, et constituent des par- ties d’une panoplie d’univers aux ramifications infinies. Cette «théorie des univers multiples» est devenue populaire parmi les cosmologistes, qui ont d’autres raisons de penser que nous habitons un multivers. Mais personne n’est jamais parvenu à tester expérimentalement

N’IMPORTE QUELLE MESURE PARTICULIÈRE NE CAPTURE QU’UN FRAGMENT DU MONDE QUANTIQUE

quées (voir Pas d’échappa- toire pour l’intrication, par R. Hanson, page 26). Un observateur ne peut qu’es- pérer voir une petite frac- tion de ce vaste système enchevêtré. En consé- quence une mesure parti- culière ne capture qu’un fragment du monde quantique.

Ce processus, que Heinz-Dieter Zeh nomme la décohérence, a vite été adopté par les physiciens pour expliquer pourquoi nous ne percevons pas de phénomènes quantiques au niveau macroscopique. Il décrit l’effondrement d’une fonction d’onde intacte

cette idée des mondes multiples et à la distin- guer de la théorie quantique standard.

Il en va de même pour d’autres interpréta- tions de la mécanique quantique. Le physicien français Louis de Broglie, l’un des fondateurs de la théorie quantique, cherchait à supprimer la nécessité de la réduction du paquet d’ondes en introduisant la notion «d’ondes pilotes» qui guident les trajectoires des électrons et de toutes les autres particules.

Dans cette version de la théorie quantique, que le physicien américain David Bohm a davan- tage développée dans les années 1950, il n’y a pas de réduction mystérieuse; les mesures montrent simplement les interactions d’ondes pilotes et de leurs particules associées. Mais, encore une fois, personne n’a pu le prouver expérimentalement. La théorie de l’onde pilote de Louis de Broglie et David Bohm, la théorie des mondes multiples d’Everett et les dizaines d’autres approches de la mécanique quantique sont au même stade.

(qui comprend tous les états physiques pos- sibles qu’une particule peut avoir) lorsqu’elle interagit avec celles d’autres systèmes quan- tiques voisins. Si ce modèle est juste, nous vivons au milieu de cette toile quantique intri- quée dont nous ne voyons qu’une partie.

La décohérence ne résout pas le problème de la mesure pour tous les physiciens. Par exemple, elle n’explique pas pourquoi nous voyons un fil de la toile quantique et pas les autres. « Il faut encore invoquer la réduction, selon laquelle un des états intriqués doit être sélectionné », explique Miles Blencowe, du Dartmouth College, aux États-Unis.

Pour lui et d’autres, ce processus ne cap- ture pas notre expérience des choses, notam- ment son aspect temporel. « Comment, ajoute-t-il, passe-t-on d’un état intriqué à une perception du monde qui évolue avec le temps selon un unique chemin?» De nombreux spé- cialistes estiment qu’il faut passer par une réduction pour rétablir cette unité du monde à mesure qu’il évolue plutôt que cette toile

Finalement, les physiciens choisissent leur description de la réalité préférée d’après un critère esthétique. « J’en reviens au fait que nous avons un seul monde qui évolue, insiste Miles Blencowe. Pour cela, on a vraiment besoin d’une sorte de réduction, qui serait plus qu’une simple règle pour les résultats expéri- mentaux, un processus bien réel.» LA VILLE INTRIQUÉE

La ville de Delft pourrait être qualifiée de système quantique intriqué. Ses canaux pla- cides et ses bâtiments médiévaux de briques se superposent dans l’espace et dans le temps avec des voitures, des cyclistes, des magasins de téléphones portables et des étudiants qui arpentent les mêmes rues étroites qu’a explo- rées le peintre Johannes Vermeer. Le labora- toire de Simon Gröblacher est à environ 2 kilomètres au sud du centre historique et… à des centaines d’années dans le futur!

Par un matin chaud de printemps, il montre à un visiteur l’une des «  grandes, très

grandes» créations dont il est, avec ses collè- gues, l’auteur : une membrane de l’ordre du millimètre, attachée à une puce de silicium, à peine visible à l’œil nu.

Vue de près (ou largement agrandie sur un poster dans le couloir), la membrane ressemble à un trampoline minuscule. Elle est composée de nitrure de silicium, un matériau céramique

TARDIGRADE SUR TRAMPOLINE

Des objets macroscopiques peuvent-ils se comporter de manière quantique ? L’une des expériences prévues pour y répondre met en jeu une membrane de taille millimétrique qui ressemble à un minuscule trampoline. Attachée à une puce en silicium, la membrane peut vibrer pendant de longues minutes. Les scientifiques comptent utiliser un laser pour placer la membrane dans un état de superposition quantique : la membrane pourrait vibrer à deux amplitudes différentes en même temps. Les chercheurs veulent suivre la possible réduction du paquet d’onde du système (la membrane adopte une seule amplitude). Lors de futurs tests, le dispositif embarquerait un passager vivant – un tardigrade – placé sur la membrane et mis en état quantique.

Rayon laser

Membrane centrale en nitrure de silicium

utilisé dans le moteur des navettes spatiales, et comprend en son centre un miroir hautement réfléchissant. Une seule secousse de l’un des composants peut faire vibrer la membrane pen- dant plusieurs minutes. De telles membranes sont «d’excellents oscillateurs, explique le phy- sicien. Ce serait comme pousser une fois quelqu’un sur une balançoire pour qu’elle oscille d’avant en arrière pendant dix ans. » Malgré ses dimensions lilliputiennes, la mem- brane est extraordinairement résistante. «Nous la soumettons à une tension très importante – de l’ordre de 6 gigapascals, précise Richard Norte, l’un des collaborateurs de Simon Gröblacher. C’est environ dix mille fois la pres- sion dans un pneu de vélo, dans quelque chose à peine huit fois plus large qu’un brin d’ADN.» Cette résistance rend la membrane idéale pour étudier des phénomènes quantiques: elle vibre de façon fiable à température ambiante et sans se briser. Simon Gröblacher et Richard Norte comptent un jour utiliser un laser pour pousser la membrane dans un état de superpo- sition (la membrane oscillerait simultanément à deux amplitudes différentes). La capacité de la membrane à vibrer pendant plusieurs minutes devrait, en principe, permettre à ces états quantiques de persister suffisamment longtemps pour que nous puissions voir ce qui se passe quand – ou si – la membrane se réduit à un seul état classique.

« C’est exactement ce qu’il faut pour créer un système qui garde ses spécificités quan- tiques, explique Simon Gröblacher. Il est très bien isolé et n’interagit pas avec son environ- nement, au risque d’induire, supposément, la décohérence. Une fois dans un état quantique, vous contrôlez sa décohérence, avec le laser. Nous espérons bientôt créer une superposition des oscillations du système.»

DES TARDIGRADES QUANTIQUES

Simon Gröblacher et ses collègues ne comptent pas s’arrêter en si bon chemin. In fine, ils espèrent placer un organisme vivant sur

Attache en nitrure de silicium

Support en silicium

la me mbr ane pou r ens uite mett re celle -ci, et don c son pass ager , dans un état de supe rpos i- tion qua ntiq ue. Les can dida ts prin cipa ux pour

Tardigrade Membrane en nitrure de silicium en pleine oscillation

cette expédition dans l’espace quantique sont les tardigrades, des microorganismes à huit pattes parfois surnommés « oursons d’eau ». « Ce sont des créatures fascinantes, s’enthou- siasme Simon Gröblacher. Elles survivent à un refroidissement intense, à des températures élevées, à un vide poussé… » Mais avant d’obte- nir un tardigrade quantique, la première étape consiste d’abord à mettre le dispositif sans voyageur dans un état de superposition.

Avec ou sans tardigrades, une telle expé- rience offrirait aux physiciens l’opportunité de tester si la nature censure, d’une manière ou d’une autre, les effets quantiques au-delà d’une >

> certaine échelle de taille. Certains physiciens ont proposé que la réduction soit un véritable phénomène physique, avec des effets mesu- rables. L’une des idées, connue sous le nom de « localisation spontanée continue », ou CSL, stipule que la réduction du paquet d’onde est simplement un événement aléatoire qui se pro- duit constamment dans le monde microsco- pique. D’après cette théorie, la probabilité qu’une particule quelconque se réduise est extrêmement rare (cela se produirait une fois par centaine de millions d’années), mais pour de larges agrégats de particules, la réduction devient une certitude. LA LOCALISATION SPONTANÉE CONTINUE

« Un seul proton doit attendre envi- ron 1016 secondes (un peu plus de 317 millions d’années) pour subir une réduction. Elle n’ad- vient donc que quelques fois dans l’histoire de l’Univers», détaille Angelo Bassi. Mais le nombre énorme de particules dans un objet macrosco- pique rend la réduction inévitable. «Si vous pre- nez une table, qui contient de l’ordre du nombre d’Avogadro de particules, soit 1024, la réduction se produit quasi immédiatement.» Avec une théorie de la localisation spontanée avérée, la prise de mesure et l’observation ne joueraient plus aucun rôle dans la réduction du paquet d’onde. Dans n’importe quelle mesure, une par- ticule donnée et l’instrument qui enregistre deviennent des parties d’un grand objet quan- tique dont le paquet d’onde se réduit très rapi- dement. La particule semble passer d’une superposition d’état à une valeur précise de cet état pendant une mesure, mais cette transfor- mation se produit aussitôt que la particule inte- ragit avec l’instrument, avant même la mesure. Une réduction se révélant un phénomène physique réel aurait des conséquences pra- tiques importantes. D’abord, cela pourrait limi- ter la technologie naissante des ordinateurs quantiques. «Idéalement, on aimerait produire des ordinateurs quantiques de plus en plus grands, concède Angelo Bassi. Mais on ne pour- rait pas exécuter des algorithmes quantiques puisque la réduction, inéluctable à grande échelle, détruirait tout.»

Pendant des décennies, la plupart des phy- siciens ont considéré la réduction comme un aspect de la théorie quantique inaccessible à l’expérimentation. Mais la localisation sponta- née continue et d’autres modèles de réduction ont changé la donne. La localisation spontanée continue, par exemple, prédit que la réduction transmet une légère secousse aux particules, créant un fond de vibration omniprésent et possiblement détectable.

«Dans ce modèle, la réduction est quelque chose d’universel pour les micro- et les macro- systèmes, explique Angelo Bassi. À chaque

Pourtant très sensibles, les miroirs de Ligo n’ont pas bougé sous l’effet des vibrations quantiques prédites par la théorie de la localisation spontanée continue. De nouveaux tests plus précis sont à l’étude.

réduction, la particule bouge un peu.» Avec d’autres physiciens, il en a cherché des preuves à des endroits surprenants. Ils ont par exemple passé au peigne fin les données de calibration de l’Observatoire d’ondes gravitationnelle s par interfé- rométrie laser (Ligo), un instrument capable d’enregistrer des mouvements 10 000 fois plus petits que la largeur d’un proton.

En février 2016, le Ligo a détecté une onde gravitationne lle pour la première fois. L’onde a étiré et compressé l’espace entre deux miroirs sur les sites jumeaux de l’expérience, dans les états de Washington et de Louisiane. Le décalage fut d’à peine quatre millièmes du diamètre d’un proton, ce qui s’accorde parfai- tement avec les prédictions de la théorie de la relativité générale d’Albert Einstein. Mais dans les données de Ligo, Angelo Bassi et ses collè- gues n’ont trouvé aucun indice relatif à un mouvement additionnel causé par les petites poussées quantiques prédites par le modèle de la localisation spontanée continue. Le résultat ne les a pas surpris. Si la réduction quantique est un phénomène physique réel, il est très faible. Jusqu’à quel point? Les physiciens ont désormais attribué des limites extrêmement précises à l’effet.

Ils ont aussi traqué des manifestations de la réduction lors d’expériences conçues pour détec- ter la matière noire – des particules hypothé- tiques dont on estime qu’elles représentent 85% de la matière dans l’Univers. Une telle expé- rience, installée dans les Pyrénées espa- gnoles, utilise des détecteurs en germanium pour chercher des signes des particules de la matière noire qui les traverseraient à toute vitesse en générant un flash de rayons X. Une fonction d’onde en pleine réduction devrait, de la même façon, créer un flash. Mais aucun n’a encore été détecté…

UNE MINI-POUTRE RÉDUITE AVEC LA MÉCANIQUE QUANTIQUE

certaine échelle, la mécanique quantique ces- serait d’être la bonne théorie. Mais en dessous de ce seuil, tout ce que nous savons de la méca- nique quantique continuerait d’être vrai. Donc, les mêmes questions et interprétations philo- sophiques continueront de nous préoccu- per. Il y aurait toujours de multiples mondes pour les électrons et les atomes – mais pas pour la Lune! Cela ne réglerait donc pas tous les problèmes, mais rendrait les choses plus étranges.»

Les modèles comme celui de la loca- lisation spontanée continue ne sont que des efforts pour unifier ces deux mondes. Bien qu’ils ne soient pas encore des théo-

Ces expériences ont considérablement resserré les contraintes imposées aux modèles de réduction, mais pas au point d’en écarter le principe. En sep- tembre 2017, Andrea Vinante, de l’univer- sité de Southampton, en Angleterre, avec Angelo Bassi et trois autres collègues, ont découvert un embryon de preuve en faveur de la localisation spontanée continue. Ils ont construit un cantilever miniature (une mini-poutre horizontale fixée à l’une de ses extrémités) d’à peine 1 demi-milli-

NOUS NE FAISONS FACE À AUCUNE CRISE. TOUT LE PROBLÈME EST LÀ!

ries à part entière, ils pourraient aider les physiciens à développer un modèle de la réalité plus clair que celui proposé actuel- lement par la mécanique quantique.

« Je pense personnellement que la mécanique quantique a besoin d’un petit lifting, avoue Stephen Adler. Je ne vois pas où est le problème d’y songer. La mécanique newtonienne est apparue cor- recte pendant deux cents ans, alors qu’elle ne l’est pas. La plupart des théo- ries fonctionnent dans un domaine, mais

mètre de longueur et de 2 micromètres d’épais- seur et doté d’un petit aimant. Les chercheurs ont soigneusement protégé l’installation contre toute vibration externe et ont refroidi le dispo- sitif à une température proche du zéro absolu, afin d’éliminer tout mouvement d’origine thermique.

Dans ces conditions, le cantilever vibre malgré tout très légèrement à cause du mouve- ment thermique de ses particules. Mais l’oscil- lation s’est montrée plus importante que prévu. Le cantilever et son aimant ont vibré comme un plongeoir sur quelques trillionièmes de mètre (10-18). Ces valeurs sont compatibles avec les calculs de Stephen Adler sur la réduc- tion de paquet d’onde.

«Nous aurions pu y voir un bruit inexpliqué, se rappelle Andrea Vinante, cohérent avec ce que nous attendons d’un modèle de réduction. Mais il pourrait trahir un effet que nous n’avons pas complètement compris.» Avec ses collègues, il travaille à améliorer la sensibilité de l’expé- rience par un facteur d’au moins 10, voire 100. « Nous devrions être capables de confirmer la présence d’une anomalie ou, au contraire, d’ex- clure le caractère intéressant de ce qui a été observé.» Un an ou deux seront nécessaires avant d’obtenir de nouvelles données.

Qu’adviendra-t-il si l’une de ces expé- riences confirme le phénomène de la réduction quantique ? Les paradoxes de la théorie seront- ils résolus? « Si la réduction existe vraiment, le monde sera divisé en différentes échelles, répond Igor Pikovski, du Centre d’astrophy- sique Harvard-Smithsonian. Au-delà d’une

BIBLIOGRAPHIE

A. VINANTE ET AL., Improved noninterferometric test of collapse models using ultracold cantilevers, Physical Review Letters, vol. 119, Art. 110401, 2017. R. NORTE ET AL., Mechanical resonators for quantum optomechanics experiments at room temperature, Physical Review Letters, vol. 116, art. 147202, 2016. H. C. VON BAEYER, L’étrangeté quantique, juste une impression? Pour la Science n° 435, 2013.

cessent de suffire appliquées à un autre. »

DES IDÉES DE RÉACTIONNAIRES

Mais, pour l’heure, la mécanique quantique semble répondre à tous les tests. «Non, nous ne faisons face à aucune crise. Tout le problème est là ! s’exclame Steven Weinberg. Par le passé, nous n’avons cessé de progresser lorsque les théories existantes rencontraient des difficultés. Mais il n’y a rien de tel avec la mécanique quan- tique. Elle n’est pas en conflit avec les observa- tions. Le problème, c’est qu’elle ne parvient pas à satisfaire les idées philosophiques préconçues et réactionnaires des gens comme moi.»

Quoi qu’il en soit, la plupart des scientifiques ne se préoccupent pas de l’étrangeté de la méca- nique quantique. Ils continuent d’utiliser la théo- rie dans leurs dispositifs expérimentaux, collisionneurs d’atomes ou détecteurs de matière noire, et ne s’arrêtent que rarement pour réflé- chir à ce que dit – ou ne dit pas – la mécanique quantique quant à la nature de la réalité.

« Je pense que la majorité des physiciens ont une attitude très saine, confie Steven Weinberg, en continuant d’utiliser la théorie, en repoussant les frontières de notre connais- sance et en laissant les questions philoso- phiques aux générations futures.» Un certain nombre d’entre eux, toutefois, ne comptent pas attendre si longtemps. «  Certains vous diront que la mécanique quantique nous a appris que le monde est étrange et que nous devons l’ac- cepter, remarque Angelo Bassi. Je m’y refuse. Si une chose est étrange, nous devons faire en sorte de mieux la comprendre.» n

… MAIS UNE RÉALITÉ QUESTIONNÉE Certes, la physique quantique décrit parfaitement une très grande variété de phénomènes naturels. Il n’empêche, sa nature essentiellement probabiliste, et les étranges concepts qu’elle véhicule (indéterminisme, superposition, dualité onde-corpuscule, chat de Schrödinger, principe d’incertitude, non-localité, intrication...) posent de sérieux problèmes à qui veut se pencher sur sa signification profonde. De fait, les lois de la physique quantique défient l’idée que nous avons de la réalité physique. Certains ne s’en préoccupent pas, et se satisfont de son extraordinaire efficacité, mais d’autres s’interrogent sur l’interprétation à lui donner. Les hypothèses en lice sont nombreuses, mais comment trancher ? On peut les tester par des expériences de pensée, mais aussi par de vrais montages en laboratoire.

… MAIS UNE RÉALITÉ QUESTIONNÉE

La physique quantique sans gravité

Et si la gravité n'était pas quantique et restait de nature classique ? Cela expliquerait l'échec des tentatives d’échafauder une théorie quantique de la gravitation. Il faudrait alors repenser les fondements de la physique quantique.

La physique quantique sans gravité

Dans certaines interprétations de la physique quantique, dites « de réduction dynamique », les particules se matérialisent lors de « flashs ».

Dans de tels modèles, on peut inclure la gravitation sans avoir besoin d’en établir une formulation quantique.

L’ESSENTIEL ? La plupart des physiciens pensent que la physique quantique et la relativité générale ne peuvent être conciliées que dans le contexte d’une théorie quantique de la gravitation. ? Les principales pistes que sont la théorie des cordes ou la gravitation quantique à boucles n’ont pas encore obtenu de résultats satisfaisants.

? Une autre voie est celle de la « gravitation semi-classique», où cette force resterait de nature classique. Des modèles développés récemment montrent que cette approche peut fonctionner. ? Des expériences pour tester directement la nature quantique ou classique de la gravitation pourraient voir le jour.

P

L’AUTEUR

ANTOINE TILLOY p h y s i c i e n à l ’ i n s t i t u t M a x - P l a n c k d ’ o p t i q u e q u a n t i q u e , p r è s d e M u n i c h , en Allemagne

fondamentales: l’électromagnétis me, qui agit entre photons et particules dotées d’une charge électrique, l’interaction forte, qui assure la cohé- sion des protons et des neutrons dans le noyau atomique, et l’interaction faible, qui se mani- feste notamment dans la radioactivité bêta.

La quatrième interaction fondamentale, la gravitation, est décrite par une autre théorie très différente, la relativité générale, introduite en 1915 par Albert Einstein. Dans cette théorie, la matière et l’espace-temps interagissent pour donner ce que l’on perçoit comme la force gra- vitationnelle: la matière (et l’énergie) courbe l’espace-temps et son mouvement est, en retour, déterminé par le «relief» de l’espace-temps.

our Carlo Rovelli, du centre de physique théo- rique de Luminy, près de Marseille, « le pro- blème de la gravitation quantique n’est rien de moins que le problème de trouver la nouvelle description cohérente du monde, qui amènerait enfin la révolution scientifique du xxe siècle à sa conclusion.»

La révolution en question est celle de l’avè- nement de la physique quantique et de la relati- vité générale. Ces deux théories ont bouleversé notre vision du monde, des plus petites aux plus grandes échelles. Mais les réunir dans «une nou- velle description cohérente», est encore hors de portée. Jusqu’ici, toutes les tentatives visant à élaborer une théorie quantique de la gravitation, ou «gravité quantique», ont été décevantes. Mais cette synthèse est-elle vraiment nécessaire? Et si oui, la gravité quantique est-elle la seule façon d’y parvenir? Des physiciens explorent une autre piste qui consiste à concilier relativité générale et physique quantique sans pour autant imposer une formulation quantique de la gravitation.

Pour y parvenir, ils sont amenés à repenser les fondements de la physique quantique. Au cours de la seconde moitié du xxe siècle, elle a conduit au développement de la théorie quan- tique des champs, qui intègre dans un ensemble cohérent le «modèle standard de la physique des particules », trois des quatre interactions

La relativité générale est utile dans les situations où la gravitation domine, c’est-à-dire principalement en astrophysique et en cosmo- logie. La physique quantique, plus précisément le modèle standard, s’applique plutôt dans des situations où la gravitation est négligeable en comparaison des autres forces, ce qui est le cas dans les expériences menées dans les accéléra- teurs de particules. DES THÉORIES INCOMPATIBLES

Ainsi, à son niveau le plus fondamental, l’Univers semble régi par deux mécaniques dis- tinctes, deux ensembles de lois a priori incompa- tibles tant les notions et objets de ces théories sont différents. Dans leurs domaines d’applica- tion respectifs, ces deux théories sont d’une effi- cacité redoutable. Mais relativité générale et physique quantique ne semblent pas pouvoir être utilisées simultanément, en tout cas pas sans modification. Que se passe-t-il, par exemple, dans une situation où les effets dus à la physique quantique sont importants, mais où la force gra- vitationnelle domine? La réponse simple est que l’on ne sait pas. On n'a même pas de cadre théo- rique approprié.

Les situations où il faudrait utiliser à la fois la physique quantique et la relativité générale sont rares dans la nature. Nous n’avons donc pas de résultats expérimentaux pour nous indi- quer ce qui s’y passe. Cette situation est due au fait que la gravitation est une force extrême- ment faible, qui ne domine les trois autres que pour les objets massifs et étendus. Or les effets quantiques tendent, eux, à se brouiller lorsque la taille des objets considérés augmente.

Cependant, au moins deux situations motivent la recherche d’une théorie quantique de la gravitation. Sans une telle théorie, il semble

A PRIORI, SANS UNE THÉORIE QUANTIQUE DE LA GRAVITÉ, IL SEMBLE IMPOSSIBLE DE SAVOIR CE QUI S’EST PASSÉ AU DÉBUT DE L’UNIVERS impossible de savoir ce qui s’est passé au moment du Big Bang, ou encore aujourd'hui au centre des trous noirs. Dans ces deux cas, où la gravitation est très forte, la relativité générale prédit l’exis- tence de singularités, c’est-à-dire des grandeurs physiques infinies. C’est un signal clair que cette théorie est insuffisante, à elle seule, pour décrire ces situations: les effets de la physique quantique y sont importants et doivent être pris en compte. Dès lors, comment construire une théorie globale combinant physique quantique et rela- tivité générale? Une première piste naturelle est la « quantification canonique». Cette tech- nique formelle permet de produire une version quantique d’une théorie physique dont on ne connaît qu’une formulation « classique ». En 1927, le physicien anglais Paul Dirac a intro- duit et appliqué avec succès cette méthode à l’électromagnétisme. Avec ses raffinements successifs, cette approche a conduit à l’intégra- tion des trois interactions non gravitation- nelles au sein du modèle standard.

En 1967, les Américains John Wheeler et Bryce DeWitt ont tenté une formulation quan- tique de la gravitation en utilisant la quantifica- tion canonique. Mais cette approche fonctionnait mal et entraînait des difficultés techniques et conceptuelles qui semblaient insurmontables. Notamment, des notions a priori triviales comme le temps ou la causalité deviennent difficiles à comprendre et même à définir.

Ce premier échec a motivé des approches plus exotiques et élaborées, comme la «gravité quantique à boucles», qui est un raffinement de l’approche canonique et dont Carlo Rovelli est l’un des auteurs, ou la théorie des cordes, qui s’en éloigne plus radicalement. Cette dernière, qui est probablement la voie la plus explorée et la plus aboutie, fait l’objet d’études intenses depuis environ quarante ans. Dans cette approche, les objets fondamentaux ne sont pas des particules ponctuelles, mais de minuscules cordes vibrantes. Parmi les nombreux aspects intéressants de cette théorie, un résultat pro- metteur du point de vue d’une gravité quantique est qu’elle décrit un mode de vibration (d’une corde) qui serait associé au graviton, la particule médiatrice de la force gravitationnelle lorsqu’on suppose que celle-ci est de nature quantique.

UNE THÉORIE CHER PAYÉE

Cependant, les succès de la théorie des cordes se paient par une complexité mathéma- tique extrême, au point que l’on ne dispose pas d’une définition mathématique générale de la théorie. En pratique, les physiciens ont un ensemble d’approximations dont on conjecture qu’elles sont les limites d’une théorie sous- jacente (la théorie M) qui reste à expliciter. La théorie des cordes souffre aussi d’un excès de flexibilité. Un choix judicieux de conditions ini- tiales permettrait d’obtenir à peu près n’importe quelle prédiction, ce qui met en question la réfu- tabilité de la théorie. Ces difficultés justifient que l’on s’intéresse à d’autres pistes.

Après tout, si parvenir à une formulation quantique de la gravitation est aussi difficile, c’est peut-être parce que la gravité diffère, par nature, des autres forces. Aucun principe n’interdit a priori de construire une théorie globale où coha- biteraient la relativité générale et la physique quantique en gardant une formulation classique de la gravité. L’idée est moins esthétique – la gra- vitation serait alors fondamentalement différente des autres interactions – mais l’Univers fait peu de cas de nos canons de beauté. On parle alors de gravité semi-classique («semi» car la gravité n’est pas quantique, à l'inverse des autres forces).

À quelles contraintes une telle théorie est- elle soumise? Elle doit continuer à décrire la force gravitationnelle de la même façon que la relativité générale, mais avec une subtilité sup- plémentaire: la matière doit obéir par ailleurs aux lois de la physique quantique.

La relativité générale décrit, nous l'avons vu, la gravitation comme le résultat d’une inte- raction dynamique entre matière et espace- temps: la courbure de l’espace-temps détermine le mouvement de la matière, tandis que, simul- tanément, la matière déforme le relief de l’es- pace-temps. Dans cette double dynamique, il est assez simple d’adapter les équations de la physique quantique pour prendre en compte une courbure donnée a priori : c’est la théorie quantique des champs en espace courbe, sur laquelle ont travaillé Stephen Hawking, Roger Penrose, Robert Wald… à partir des années 1970. >

> Bien que les calculs ne soient pas faciles, ce formalisme a été utilisé dans divers cas limites, pour calculer par exemple les propriétés d’atomes froids dans le champ gravitationnel terrestre ou pour prédire l’existence d’un rayonnement extrê- mement faible (pas encore détecté) émis par les trous noirs, le rayonnement dit «de Hawking».

À l’inverse, nous n’avons aucune idée de la façon dont la matière décrite par la physique quantique courbe en retour l’espace-temps. Comprendre cette influence demande de s’inter- roger sur certains concepts très fondamentaux: qu’est-ce que la masse gravitationnelle en phy- sique quantique? Comment se crée un champ gravitationnel? Sur ces questions, la physique quantique, dans son approche usuelle, est muette. En revanche, cette théorie permet de faire des prédictions précises. Les informations dispo- nibles sur un système quantique sont contenues dans un objet mathématique, la fonction d’onde du système. Dans les années 1920, les physiciens ont énoncé un ensemble de règles simples qui, à partir de la fonction d’onde, permettent de cal- culer et prévoir les résultats d’une mesure (ou plutôt leur probabilité) lors d’une expérience.

SUPERPOSITIONS D’ÉTATS

Mais cette approche ne dévoile rien d’une réalité qui serait sous-jacente aux résultats des mesures expérimentales. La physique quantique est une sorte de boîte noire. Dans cette vision dite «de l’école de Copenhague », héritée de Niels Bohr, l’un des pères de la théorie quantique, on ne cherche pas à en dire plus. Le statut même de la fonction d’onde – objet réel ou simple outil de calcul? – n’est lui-même pas clair. Or si l’on veut savoir comment la matière quantique courbe l’espace-temps, on ne peut se contenter de ce mutisme. Nous devons spéculer sur la nature tangible sous-jacente aux prédictions quantiques et explorer d’autres interprétations de la physique quantique que celle de l’école de Copenhague.

Une spécificité de la physique quantique, que l’on n’observe pas dans le monde classique, est le principe de superposition. Tant que la propriété d’un objet quantique (sa position, sa vitesse, son spin…) n’a pas été mesurée, l’objet peut exister dans une superposition d’états correspondant à des valeurs différentes de cette propriété. Du point de vue du formalisme, l’état quantique d’une particule peut, par exemple, mettre en jeu plusieurs positions dif- férentes simultanément. Le célèbre chat de Schrödinger illustre cette idée.

Cependant, il est impossible d’observer direc- tement les superpositions. Elles sont détruites lorsqu’on réalise une mesure. On ignore donc si une superposition d’états existe vraiment où s’il s’agit seulement d’un outil intermédiaire de calcul. En 1962, le Danois Christian Møller et le Belge Léon Rosenfeld ont proposé de supposer qu’une superposition d’états est une entité bien

réelle et contribue donc à courber l’espace-temps (qui, lui, reste bien unique, sans superposition). Ils ont ainsi spéculé que l’énergie de tous les états composant la superposition courbe l’espace- temps. Mais cette proposition de Møller et Rosenfeld soulève des difficultés conceptuelles. Il existe plusieurs façons de les mettre en évi- dence. Celle que nous allons présenter n’est pas celle qui a été utilisée historiquement, mais elle est la plus simple et la plus générale.

UNE INTRICATION NON LOCALE

Pour comprendre l’argument, il faut remon- ter à l'article d’Albert Einstein, Boris Podolsky et Nathan Rosen publié en 1935 sur, selon eux, l'impossible intrication (voir Pas d'échappatoire pour l'intrication, par R. Hanson, page 26). Einstein et ses deux coauteurs en concluaient que la superposition est un artefact de modéli- sation, et qu’il n’y a en fait qu’une seule réalité, prédéterminée avant même la mesure. La super- position, présente dans le formalisme quantique, ne serait qu’une conséquence de notre igno- rance. Il manquerait ainsi des variables (parfois dites «cachées») qui spécifieraient de façon plus précise l’état des particules. Dès lors, le forma- lisme de la physique quantique serait incomplet car améliorable, manquant de spécifier un résul- tat pourtant prédéterminé.

Si, en revanche, les résultats ne sont pas déterminés avant la mesure, il faut admettre que la physique quantique implique l’existence d’interactions non locales, indépendantes de la distance séparant les particules et donc non contraintes par la relativité restreinte qui sti- pule qu'aucune information ne peut se propa- ger plus vite que la lumière. Einstein jugeait cette solution inacceptable. L'histoire, en la personne de John Stewart Bell et Alain Aspect lui ont donné tort: la nature suit bien les prédic- tions quantiques et leur caractère non local.

Les conséquences de la non-localité sont- elles une menace pour la relativité restreinte? Bizarrement, en apparence seulement. Les équations de la physique quantique conspirent à maintenir la non-localité sous une forme bénigne : elle est inexploitable pour trans- mettre de l’information et reste donc compa- tible avec la relativité restreinte.

En revanche, si l’on utilise la méthode de Møller et Rosenfeld pour intégrer une force gra- vitationnelle classique à la physique quantique, la situation devient problématique. Cette approche brise la linéarité de l’équation de Schrödinger, équation fondamentale qui régit l’évolution temporelle de la fonction d’onde d’un système quantique. En 1989, Nicolas Gisin, physicien genevois, fit remarquer que la non-linéarité a, de façon générale, une consé- quence fatale : se propageant à d’autres élé- ments mathématiques de la théorie, elle est exploitable pour transmettre de l’information plus vite que la lumière. Cet argument a disqua- lifié la proposition de Møller et Rosenfeld ainsi que toutes les approches similaires.

La question devient alors: existe-t-il une façon de coupler un espace-temps classique à de la matière quantique sans que la non-localité mette à mal les principes de la relativité res- treinte? Existe-t-il des modifications de la phy- sique quantique contournant l'objection de Nicolas Gisin ? Dès 1984, Nicolas Gisin lui- même avait construit un modèle rudimentaire modifiant la physique quantique sans briser la relativité restreinte, en ajoutant aux équations un terme fondamentalement aléatoire. Ce modèle préfigurait les modifications de la phy- sique quantique dites d’objective collapse en anglais ou « de réduction dynamique ».

Avant de chercher à les appliquer à la gravi- tation, les physiciens ont étudié les modèles de réduction dynamique pour résoudre un pro- blème lié aux superpositions d’états. Dans l’exemple du chat de Schrödinger, la superposi- tion d’états d’un atome se répercute sur un objet macroscopique et jusque sur les instruments de mesure. Or, soulignait Schrödinger, ce phéno- mène est problématique puisqu’on n’observe pas de superpositions à l’échelle macroscopique. Les partisans de l’école de Copen hague écartai ent cette difficu lté en postul ant que les instru ments de mesur e étaient de nature différe nte, intrins è- queme nt classiq ue, et qu’ils réduis aient autom a- tique ment les superp osition s à leur contac t. Mais cette distinc tion entre mond e quanti que et ins- trume nts de mesur e classiq ues est arbitra ire, les instru ments étant eux- même s faits d’ato mes.

SUPPRIMER LES SUPERPOSITIONS

À partir de la fin des années 1980, les physi- ciens ont exploré la possibili té que la physiqu e quantiq ue ne soit qu’une approxi mation d’une théorie plus fondam entale, dans laquelle les superpo sitions à l’échelle macrosc opique sont impossi bles. Qu’elles soient réelles ou de purs artefacts du formalis me, les superpo sitions res- teraient confinée s au monde microsc opique. L’idée est d’ajout er dans l’équati on de Schrödi nger des termes garantis sant que les superpo sitions se réduise nt à un état unique lorsque le système devient grand. Cepend ant, pour respecte r la remarq ue de Gisin, la seule façon de modifie r l’équati on est d’ajoute r des termes de nature aléatoir e: en les choisiss ant judicieu sement, les non- linéarité s problé ma- tiques comme celles qui émerge aient dans le >

RÉDUCTION PAR DES « FLASHS »

Les superpositions quantiques sont difficiles à interpréter pour une particule élémentaire. Mais la situation est encore plus gênante à l’échelle macroscopique. Comme l’a souligné Erwin Schrödinger avec son chat à la fois mort et vivant, les superpositions ne sont a priori pas confinées au microscopique.

Les modèles de réduction dynamique visent à résoudre ce problème en détruisant de façon aléatoire les super- positions macroscopiques, tout en conservant (à peu près) les superpositions microscopiques nécessaires

se produit en moyenne moins de une fois par milliard d’années, la particule se matérialise en un endroit bien précis, nommé flash, autour duquel se resserre aussitôt la fonction d’onde. Cette réduction brutale, qui modifie l’équation de Schrödinger, a un impact minime sur la dynamique microscopique, car une particule ne « flashe » presque jamais. En revanche, un objet macroscopique tel qu’un chat, contenant de l’ordre de 1023 atomes, voit chaque seconde des milliards de ses particules élémentaires se

matérialiser en un flash. Une réalité «  non superposée » émerge ainsi comme un tableau pointilliste.

S’il résout le problème des superpositions, le modèle GRW est ad hoc et ajoute de nouveaux paramètres fondamentaux à la physique sans intuition quant à leur origine. Peu de physiciens pensent que GRW est la solution aux problèmes conceptuels de la physique quantique. Les expériences cherchant à mesurer la stabilité de superpositions dans des systèmes de plus en plus gros devraient le réfuter.

Ce modèle permet néanmoins d’explorer des moyens d’introduire une force gravitationnelle classique. Dans le modèle développé par Antoine Tilloy et Lajos Diósi en 2015, au sein d’un système de particules (1, représentées de façon abusive chacune par une fonction d’onde, au lieu d’une fonction d’onde pour l’ensemble du système), une particule subit un flash (2, en rouge). Elle acquiert une masse et crée un champ gravitationnel qui attire les fonctions d’onde des autres particules (3).

pour expliquer les résultats expérimentaux.

En 1986, les Italiens Giancarlo Ghirardi, Alberto Rimini et Tullio Weber (GRW), proposent que la fonction d’onde d’une particule obéisse à l’équation de Schrödinger la plupart du temps, mais subisse parfois un « flash ». Avec une probabilité très faible, de sorte que l’événement

1 2 3

VERS UN TEST EXPÉRIMENTAL ?

Une nouvelle expérience a été proposée pour sonder le caractère quantique de la force gravitationnelle. Elle sera peut-être réalisable d’ici à quelques années. Elle repose sur deux microdiamants, mis chacun dans une superposition quantique de deux états. En rapprochant les deux diamants l’un de l’autre, la force de gravitation devrait intriquer ces états si cette force est de nature quantique. Si elle est fondamentalement classique, les chercheurs n’observeront pas de phénomène d’intrication.

> modèle de Møller et Rosenfeld se compensent et s’annulent. L’aléa permet de rétablir la linéarité de l’équation et élimine la possibilité de trans- mettre des signaux plus rapides que la lumière. Les plus connus de ces modèles de réduc- tion dynamique sont le modèle GRW (voir l’encadré page précédente), du nom des Italiens Giancarlo Ghirardi, Alberto Rimini et Tullio Weber, et le modèle DP, du Hongrois Lajos Diósi et de l'Anglais Roger Penrose.

Initialement, aucun de ces modèles n’in- cluait la force gravitationnelle; l’objectif était alors simplement de supprimer les superposi-

GRAVITÉ QUANTIQUE GRAVITÉ CLASSIQUE Microdiamants 1

tions. Ces tentatives ont aussi prouvé qu’il est possible de modifier l’équation de Schrödinger

(en bleu et rouge) contenant chacun un atome d’azote à côté d’une lacune cristalline

Impulsion microonde

Les deux microdiamants sont placés à faible distance l’un de l’autre et lâchés en chute libre.

2 Un électron du système azote- lacune absorbe, ou non, l’impulsion. Son spin s’oriente alors vers le haut ou le bas.

en res pe cta nt la li mi te de Gi sin

il fa ut si m pl e- m en t aj ou ter la bo nn e qu an tit é d’ alé a.

D ur an t les vi ng t- cin q an né es qu i on t sui vi l’in tro du cti on de ces m od èle s de ré du cti on dy na - mi qu e, l’i dé e d’ y inc lur e la gr avi tat io n est res tée pe u dis cut ée. Le s ph ysi cie ns pe ns aie nt qu e les pr édi cti on s ser aie nt de to ut e faç on im po ssi ble s à tes ter ex pé ri me nt ale me nt. M ais ve rs 20 10, les ch erc he ur s on t en vis ag é la po ssi bil ité d’e xp lor er le car act ère qu an tiq ue de la gr avi tat io n gr âc e à de s ex pé rie nc es à ba sse én er gie ex pl oit an t fin e-

Champ 3

ment les superpositions quantiques.

magnétique

Sous l’effet du champ

magnétique, l’électron

est dévié vers la gauche ou vers la droite selon l’orientation

UNE GRAVITATION IRRÉALISTE

Du côté théorique, la situation était embar- rassante : on ne disposait pas de théorie de gra- vité semi-classique cohérente qui puisse être

États superposés

États intriqués

du spin.

4

Chaque électron subit la force gravitationnelle de l’autre. L’intensité de la force dépend de la nature de celle-ci. Si elle est quantique, elle conduit

à l’intrication des deux diamants.

États superposés

L’interaction force le choix d’un état.

comparée aux résultats des expériences futures. En pratique, les théoriciens étaient contraints d’utiliser l’approche (incohérente) de Møller et Rosenfeld en croisant les doigts pour que ses prédictions soient à peu près valables dans des situations simples. Faute de mieux, on se servait d’une théorie que l’on savait fausse pour estimer des ordres de gran- deur et guider le choix des expériences futures. En 2014, les physiciens Dvir Kafri et Jacob Taylor, de l’université du Maryland, avec Gerard

Champ

Milburn, de l’université de Californie à Santa

magnétique inversé

5 Un champ

Barbara, ont développé un premier modèle sim- plifié de gravité semi- classique. Mais la force

Détecteurs

magnétique ramène

l ’ é l e c t r o nd a n sl ap o s i t i o ni n i t i a l e . Intriqués Non i n t r i q u é s 6 L es p i nd ec h a q u eé l e c t r o ne s tm e s u r é ,l e ss u p e r p o s i t i o n ss o n td é t r u i t e s .gr a vi ta ti o n n el le n’ ét ai t p a s ré al is te , m ê m e d a n s le c a s n o n r el at iv is te o ù l’ o n c o n si d è r e d es vi te ss es fa ib le s: el le n e re p ro d ui sa it p as l’ e x p re s- si o n n e w to ni e n n e d’ u n e fo rc e p ro p or ti o n n el le à l’i n v er se d u ca rr é d e la di st a n ce . C e p e n d a nt , p ar c o n st r u ct io n, le m o d èl e e st c o h ér e n t. E t s’ il n e d é cr it p a s u n e fo rc e ré al is te , c e ré s ul ta t e st u n gr a n d p a s e n a v a nt . P o u v ai t- o n al le r pl u s lo in ?A u d é b u t d e 2 0 1 5, e n e x p lo it a n t la m ê m e in tu iti o n q u e D vi r K af ri et se s c ol lè g u es et e n la fusionnant avec les construction s historiques

Si la gravité est quantique, les paires de spins mesurés seront plus souvent corrélées que si elles étaient totalement aléatoires.

Si la gravité est classique, il n’y a pas intrication. Les paires de spins mesurés sont non corrélées et totalement aléatoires.

des modèles de réduction dynamique des années 1990, j’ai construit, avec Lajos Diósi, un modèle complet reproduisant la bonne force gravitationnelle (newtonienne). Notre modèle ne fonctionne que pour des vitesses faibles, ce

qui est néanmoins suffisant pour traiter toutes les expériences de laboratoire à basse énergie.

Quelle est l’idée du modèle? Rappelons que la difficulté de la gravité semi-classique consiste à extraire de la physique quantique une grandeur que l’on peut définir comme la masse (ou l’éner- gie) servant de source à un champ gravitationnel classique (sans superposition d’états). SOUS LES FLASHS

Dans l’approche standard, le seul objet dont on dispose est la fonction d’onde. Dans les approches de réduction dynamique comme le modèle GRW, l’évolution de la fonction d’onde de chaque particule (dictée par l’équation de Schrödinger) est interrompue de façon aléa- toire. C’est un « flash », c’est-à-dire un point de l’espace-temps où la superposition est détruite. Le terme de « flash» a été choisi pour mettre en valeur l’aspect éphémère du phénomène (et n’a rien à voir avec une émission de lumière).

Dans notre modèle, la particule devient réelle à l’instant et l’endroit précis du flash. Elle se matérialise et acquiert une masse et crée donc un champ gravitationnel. La particule attire alors vers elle la fonction d’onde du reste du système ou, dit de façon un peu abusive, toutes les autres particules du système. Puis une autre particule se matérialise par un flash et attire vers elle la fonction d’onde du reste… Entre chaque flash, l’évolution quantique usuelle reprend le relais. La gravité se manifeste ainsi de façon saccadée. Si cette dynamique semble en contradiction avec l’impression que nous avons d’une force gravitationnelle continue, elle est compatible avec les contraintes expérimentales actuelles. Cela s’explique par la faiblesse de la gravitation. Entre deux particules élémentaires, cette force est bien trop petite pour être détectable. Elle n’est observable qu’avec des objets suffisamment macroscopiques dans lesquels les milliards de flashs et d’à-coups gravitationnels qui appa- raissent chaque milliseconde donnent aux obser- vateurs l’impression d’un champ gravitationnel évoluant de façon douce et continue.

Un tel modèle, où les flashs sont la source de la force gravitationnelle, présente un certain nombre de signatures expérimentales poten- tiellement détectables. Par exemple, chaque flash ajoute de l’énergie cinétique aux parti- cules. Cette petite augmentation d’énergie serait observable sous la forme d’un réchauffe- ment mesurable, par exemple, dans des condensats d’atomes ultrafroids.

Faut-il croire à ce modèle? Probablement pas: rappelons qu’il ne fonctionne que dans le régime non relativiste. Il sera intéressant de le réfuter par des expériences pour tester les limites de la physique quantique. Mais en déve- loppant ce modèle, notre objectif était surtout de fournir un contre-exemple à l’affirmation selon laquelle une théorie hybride, où la gravité

BIBLIOGRAPHIE F. LALOË, Comprenons-nous vraiment la mécanique quantique?, EDP Sciences (2e éd.), 2018. A. TILLOY, Ghirardi-Rimini- Weber model with massive flashes, Phys. Rev. D, vol. 97(2), 021502, 2017. S. BOSE ET AL., A spin entanglement witness for quantum gravity, Phys. Rev. Lett., vol. 119(24), article 240401, 2017. G. GHIRARDI, Collapse theories, The Stanford Encyclopedia of Philosophy, Edward N. Zalta, 2016. N. GISIN, Stochastic quantum dynamics and relativity, Helv. Phys. Acta, vol. 62, pp. 363-371, 1989.

serait classique, est impossible à construire. Disposer d’un modèle cohérent, même s’il est in fine réfuté, permet de prouver que la question de la quantification de la gravité est bien empi- rique et se tranchera par l’expérience.

Ce modèle peut aussi servir de point de départ pour construire de nombreuses variantes, chacune entraînant des prédictions quantita- tives, qu’il sera intéressant de confronter avec les expériences. Cette flexibilité pourrait cepen- dant devenir une faiblesse: si tout résultat expé- rimental est explicable a posteriori en changeant le modèle à la marge, l’approche globale perdra son caractère prédictif. Ainsi, alors que le pro- blème initial était l’impossibilité apparente de construire un seul modèle de gravité semi- classique cohérent, on risque de se retrouver au contraire avec trop de solutions. TRAQUER LES SIGNATURES

Une autre façon d’aborder le problème de la gravité classique ou quantique est de cher- cher des signatures expérimentales permettant de tester la pertinence de la gravité semi- classique indépendamment du modèle. En 2017, une équipe menée par Sougato Bose, à l’University College de Londres, a répondu précisément à ce défi. Ils ont proposé une expé- rience permettant de conclure quant au carac- tère quantique ou non de la gravitation.

Pour ce faire, ils exploitent une différence qualitative entre toutes les approches semi- classiques cohérentes et une hypothétique théorie quantique. L’idée est d’intriquer une fonction d’onde via la force gravitationnelle (voir la figure page ci-contre). Cela n’est possible que si cette force est de nature quantique. Si la force gravitationnelle n’est pas quantique, on n’observera pas d’intrication.

La difficulté de l’expérience de Bose est de trouver une configuration telle que toutes les autres forces, notamment la force de Casimir, liée aux fluctuations électromagnétiques du vide, sont bien négligeables devant la gravité. La surprise est que les avancées techniques requises sont assez raisonnables en termes de microfa- brication, de contrôle quantique des systèmes… Des défis, certes, mais sans commune mesure avec celui d’un accélérateur de particules grand comme le Système solaire, qui semble indispen- sable pour détecter directement des gravitons. Dans les années 1980, les physiciens pen- saient que la nature quantique ou classique de la gravité était une question théorique. Elle sera peut- être expérimentale dans un futur proche. Le résultat le plus intéressant serait de découvrir que la gravité n’est pas quantique. Cela irait à contre-courant de ce que pensent la majorité des physiciens et des efforts consentis ces soixante dernières années. À l’inverse, si la gravité est quantique, une théorie de la gravité quantique n’en deviendra que plus indispensable. n

L’ESSENTIEL ? L’espace-temps pourrait être constitué de minuscules éléments d’information liés par le phénomène d’intrication quantique. ? Des physiciens explorent cette idée dans le cadre d’un programme de recherche intitulé It from Qubit, qui réunit des spécialistes de

l’informatique quantique et des physiciens de la relativité générale et de la théorie des cordes. ? L’objectif, à terme, est d’obtenir une théorie quantique de la gravitation, compatible avec la physique quantique et avec la relativité générale.

L’AUTRICE

CLARA MOSKOWITZ e s tr é d a c t r i c ep o u rl ar e v u eS c i e n t i f i cA m e r i c a no ùe l l ec o u v r el ’ a s t r o p h y s i q u e ,l ac o s m o l o g i ee tl ap h y s i q u e .

La matrice de l’espace-temps L’intrication quantique de minuscules bribes d’information est-elle la matrice de l’espace et le temps ? Telle est l’audacieuse hypothèse explorée par le projet collaboratif intitulé « It from Qubit ».

our Shakespeare, « le monde entier est un théâtre». Les physiciens partagent cette idée, mais pour eux, le théâtre est l’espace. Et sur la scène, les acteurs sont les forces et les particules. L’espace, tel qu’on le conçoit le plus souvent, n’est constitué de rien de matériel.

Cependant, les chercheurs remettent en question cette vision. L’espace (ou plutôt

l’espace-temps dans le contexte de la théorie de la relativité générale) pourrait être composé de minuscules bouts d’information. Selon cette approche, ces petits éléments, en interagissant, créent l’espace-temps et font émerger ses pro- priétés, telles que la courbure – dont découle la gravité.

Cette idée, si elle est correcte, n’explique- rait pas seulement l’origine de l’espace-temps. Elle aiderait aussi les physiciens à formuler la théorie quantique de la gravitation qui se fait attendre depuis si longtemps. En effet, les phy- siciens ont développé au xxe siècle deux théo- ries irréconciliables, la relativité générale, qui décrit la dynamique de l’espace-temps, et la physique quantique, qui régit le monde des particules et de leurs interactions.

Le projet It from Qubit réunit régulièrement une centaine de physiciens pour réfléchir à ces nouvelles idées. Le nom de ce projet résume l’hypothèse qui anime ces chercheurs: le it est ici l’espace-temps et le qubit représente la plus petite quantité d’information – la version quan- tique du bit informatique.

L’idée que l’Univers serait construit à partir d’informations a été popularisée dans les années 1990 par le physicien américain John Wheeler et son expression «It from bit». Pour lui, toute la physique serait décrite au niveau le plus fondamental à partir d’information. Aujourd'hui, avec les progrès en physique quantique, le bit est devenu qubit et l’idée s’est modernisée.

La réunion It from Qubit (IfQ) de juil- let 2016 à l’institut Perimeter de physique

théorique, au Canada, illustre l’engouement autour de cet axe de recherche. Les organisa- teurs attendaient environ 90 personnes, mais ils ont reçu tellement de demandes qu’ils ont finalement accueilli 200 participants et ont animé, en simultané, six sessions parallèles dans d’autres universités. « Je pense que c’est l’une des voies les plus prometteuses, si ce n’est la voie, pour parvenir à la gravité quan- tique », confie Netta Engelhardt, post- doctorante à l’université Princeton et qui a assisté à plusieurs de ces réunions. « C’est vrai- ment en train de décoller.»

Parce que le projet concerne à la fois la science des ordinateurs quantiques, l’étude de l’espace-temps dans le cadre de la relativité générale, la physique des particules et la >

> théorie des cordes, il réunit des chercheurs de communautés qui n’ont pas l’habitude de col- laborer. Depuis plusieurs années, la fondation Simons, un organisme privé qui soutient la recherche scientifique, alloue un budget pour financer le projet collaboratif It from Qubit ainsi que les recherches et les rencontres des physiciens sur ce sujet. L’excitation ne cesse de croître, et les rencontres successives ont attiré de plus en plus de chercheurs, parmi lesquels des membres de la collaboration financée par la fondation Simons mais aussi de nombreuses autres personnes simplement intéressées par le sujet. UN PONT ENTRE PLUSIEURS DISCIPLINES

L’intérêt pour le projet IfQ s’étend bien au- delà du cercle de chercheurs qui y participent. Par exemple, Brian Greene, théoricien des cordes à l’université Columbia et extérieur à IfQ, souligne que « si le lien avec la théorie

de l’espace-temps serait tissée par l’intrication quantique des éléments sous- jacents d’espace- temps, quelle qu’en soit la nature», explique Vijay Balasubramanian, physicien à l’université de Pennsylvanie et l’un des principaux collabo- rateurs d’IfQ.

Le raisonnement qui sous-tend cette idée est le produit d’une série de découvertes réali- sées par des physiciens, notamment par Shinsei Ryu, maintenant à l’université de l’Illinois à Urbana-Champaign, aux États-Unis, et Tadashi Takayanagi, à l’université de Kyoto, au Japon. En 2006, ces deux chercheurs ont mis en évi- dence une connexion entre l’intrication quan- tique et la géométrie de l’espace-temps. En 2013, en s’appuyant sur ces travaux, Juan Maldacena, de l’institut d’études avancées de Princeton, et Leonard Susskind, de l’université Stanford, ont montré que si deux trous noirs étaient intriqués, ils créeraient un trou de ver, un raccourci dans l’espace-temps prédit par la relativité générale. Cette idée a été surnommée ER = EPR,

L’ÉTOFFE DE L’ESPACE-TEMPS SERAIT TISSÉE PAR L’INTRICATION QUANTIQUE DES ÉLÉMENTS SOUS-JACENTS, QUELLE QU’EN SOIT LA NATURE

de l’information quantique est aussi fructueux que cer- tains l’anticipent, tout cela pourrait bien déboucher sur la prochaine révolution de notre compréhension de l’es- pace et du temps. C’est un projet important et tout à fait passionnant.»

L’idée selon laquelle l’espace-temps n’est pas fon- damental, mais émerge de bits d’information et est « constitué » de quelque chose, marque une rupture par rapport au tableau dépeint par la relativité géné- rale. De quoi exactement ces bits sont-ils faits et quel type d’information contiennent- ils? Les chercheurs l’ignorent. Mais curieusement, cela ne semble pas les déranger. « Ce qui compte, ce sont les rela- tions [entre les bits plus que

d’après les noms des physiciens qui ont suggéré ces phénomènes : Albert Einstein et Nathan Rosen pour les trous de ver, Einstein, Rosen et Boris Podolsky pour l’intrication quantique. Cette découverte, et d’autres comparables, suggèrent que, curieusement, l’intrication quantique (dont on pensait qu’elle ne faisait intervenir aucun lien physique) peut façonner l’espace-temps.

Afin de comprendre comment l’intrication pourrait donner lieu à l’espace-temps, les phy- siciens doivent d’abord mieux comprendre comment l’intrication fonctionne.

Ce phénomène nous paraît « fantoma- tique », pour reprendre les mots d’Einstein, lorsque lui et ses collaborateurs l’ont prédit en 1935, parce qu’il implique une connexion instantanée entre particules même très éloi- gnées. Une situation qui semble défier la rela- tivité restreinte qui stipule que rien ne peut voyager plus vite que la lumière. L’intrication quantique a cependant été confirmée par de nombreuses expériences, sans pour autant vio- ler les principes de la relativité restreinte. Depuis peu, les physiciens considèrent

les bits eux-mêmes]», explique Brian Swingle, postdoctorant à l’université Stanford. « Toute la richesse vient de ces relations collectives. Ici, l’élément crucial, ce n’est pas les constituants, mais la manière dont ils s’organisent.»

La clé de cette organisation pourrait être l’étrange phénomène que l’on nomme intrica- tion quantique: une corrélation qui peut exis- ter entre deux particules, et grâce à laquelle des mesures réalisées sur l’une des particules ont un effet instantané sur l’autre, même quand une grande distance les sépare (voir Pas d'échappatoire pour l'intrication, par R. Hanson, page 26). « Selon une idée fascinante, l’étoffe

qu’il existe plusieurs formes d’intrication. Dans la plus simple, plusieurs particules de même nature réparties dans l’espace sont reliées par une unique caractéristique (leur spin ou leur polarisation, par exemple). Mais, comme dit Vijay Balasubramanian, ce type d’intrication ne suffit pas pour recons- truire l’espace-temps. D’autres formes d’in- trication seraient plus pertinentes. Par exemple, on peut imaginer des intrications entre particules de natures différentes. Les chercheurs explorent aussi la complexité déroutante de l’intrication d’un grand nombre de particules.

Une fois que les différents aspects de l’in- trication seront mieux compris et maîtrisés, les chercheurs comprendront peut-être comment l’espace-temps émerge de ce phénomène. L’émergence est quelque chose que l’on retrouve par exemple en thermodynamique ou en météorologie, où les mouvements micros- copiques des molécules de l’air donnent nais- sance à la pression et à d’autres grandeurs macroscopiques. « Ce sont là des phénomènes émergents », explique Netta Engelhardt. « Quand vous faites un zoom arrière sur quelque chose, vous voyez un tableau différent dont vous ne sauriez pas qu’il découle d’une dynamique à plus petite échelle. » De façon analogue, on voit l’espace-temps mais nous ne comprenons pas la dynamique quantique fon- damentale à partir de laquelle il émerge. HOLOGRAMMES COSMIQUES

À terme, l’objectif de tous ces travaux est d’enfin parvenir à une théorie qui décrit la gra- vité d’un point de vue quantique. Mais les phy- siciens qui se sont donné cette ambition se heurtent à un mur depuis un siècle. Les parti- cipants au projet It from Qubit misent sur l’idée du «principe holographique» pour réussir là où leurs prédécesseurs ont échoué.

Ce principe suggère que certaines théories physiques sont équivalentes à d’autres, plus

simple s, qui s’appli quent dans un univer s de dimen sionna lité inférie ure. On retrou ve cette idée avec les hologr amme s: une carte postal e en deux dimen sions portan t un hologr amme de licorn e peut conte nir toute l’infor matio n nécess aire pour décrir e et représ enter la forme tridi mensi onnell e de la licorn e. Dans cette logiqu e, puisq u’il est si difficil e de trouve r une théori e satisfa isante de la gravit é quanti que, les physic iens tenten t de trouve r une théori e équi- valent e, plus mania ble, valabl e dans un univer s de dime nsion nalité inféri eure à la nôtre.

L’ une des incarn ations les plus réussi es du princi pe hologr aphiqu e est la «corre spond ance AdS/ CFT », sigles faisant référe nce à l’équi va- lence entre un modèl e cosmo logiqu e dit «  uni- vers anti- de Sitter» (AdS) et un cas partic ulier de théori e quanti que des cham ps, dite «théor ie confor me des cham ps» (CFT pour confor mal field theory ), défini e à la frontiè re de l’univ ers anti- de Sitter et dénué e de gravit é.

Pa r cette appro che, il est possi ble de décrir e compl èteme nt un trou noir à partir de ce qui se passe à la frontiè re de l’Univ ers. Juan Malda cena a établi cette relatio n à la fin des année s 1990, alors qu’il travai llait dans le cadre de la théori e des corde s. Dans cette der- nière, les partic ules fonda menta les, consid é- rées jusqu e-là comm e ponct uelles , sont remplacées par de minuscules cordes. >

> L’objectif était de résoudre certains problèmes de calcul pour développer une description quantique de la gravitation.

Grâce à la correspondance AdS/CFT, les physiciens espèrent découvrir une théorie qui soit équivalente à la gravitation quantique, tout en étant beaucoup plus simple à manipu- ler – en laissant de côté la gravitation. « Il est très difficile d’obtenir des descriptions quan- tiques pour les théories avec gravitation, alors que celles sans gravitation sont beaucoup plus faciles à décrire complètement », insiste Vijay Balasubramanian. UNE THÉORIE DE LA GRAVITATION… SANS GRAVITATION

Mais comment une théorie laissant de côté la gravité pourrait-elle être légitime en tant que théorie quantique de la gravitation ? La réponse viendrait peut-être de la nature fondamentale de la gravitation. La gravité et l’espace-temps pourraient n’être que le pro- duit final, en trois dimensions, de l’intrication des qubits dans un espace n’ayant que deux dimensions.

Depuis une vingtaine d’années, les physi- ciens ont montré que la correspondance AdS/ CFT fonctionne dans certaines situations, sans bien comprendre pourquoi. « Nous savons que ces deux théories sont duales [équivalentes], mais la raison pour laquelle la dualité fonc- tionne n’est pas claire », raconte Brian Swingle. « L’un des résultats qu’on espère [du projet IfQ] serait une théorie expliquant comment surgissent ces dualités.»

La théorie de l’information quantique pourrait aussi contribuer à ce projet grâce à un outil de cette discipline : les codes quan- tiques correcteurs d’erreurs. Les chercheurs en informatique quantique ont conçu ces codes pour aider à protéger l’information d’éventuelles pertes en cas d’interférences avec les intrications des qubits.

Les ordinateurs quantiques, au lieu de coder l’information avec des bits uniques, uti- lisent des états hautement intriqués de mul- tiples qubits. Le système reste ainsi robuste : une erreur unique ne peut pas affecter l’exac- titude d’un élément d’information donné. Mais de façon surprenante, ces codes correc- teurs pourraient jouer un rôle dans la corres- pondance AdS/CFT.

En effet, les mathématiques impliquées dans ces codes se retrouvent aussi dans cette dernière. Il semble que l’arrangement utilisé par les chercheurs pour intriquer de mul- tiples bits et former des réseaux exempts d’erreurs soit aussi en jeu dans, par exemple, le codage de l’information de l’intérieur du trou noir que l’on retrouve à sa surface à tra- vers l’intrication.

Même si les physiciens parviennent à com- prendre comment fonctionne la correspon- dance AdS/CFT, et par là à concevoir une théorie de dimensionnal ité inférieure qui se substitue à la gravité quantique, ils ne seront toutefois pas encore au bout de leurs peines. La corres- pondance elle-même ne fonctionne que dans une version simplifiée de l’Univers.

En particulier, toutes les lois de la gravita- tion qui s’appliquent à notre Univers n’inter- viennent pas dans le monde épuré de la corresponda nce. « La corresponda nce AdS/ CFT possède une sorte de gravitation, mais ce n’est pas la théorie de la gravitation dans un univers en expansion comme celui où nous vivons », explique Brian Swingle. L’univers anti-de Sitter ne contient pas de matière, juste une constante cosmologiqu e de valeur néga- tive. Et, décrit d’une certaine façon, il est stable: ni en expansion ni en contraction (voir l’encadré ci- dessous). Si notre Univers contient aussi une constante cosmologiqu e, elle doit être légèrement positive pour s’accorder aux observations sur l’expansion accélérée du cos- mos. Néanmoins, ce modèle fournit aux phy- siciens un terrain de jeu théorique utile pour tester leurs idées, et appréhender plus simple- ment la gravitation quantique.

Si le projet IfQ repose sur des fondements irréalistes, font remarquer certains sceptiques, peut-il vraiment produire des résultats valables ? « C’est une critique légitime », concède Netta Engelhardt. « Pourquoi nous concentrons-nous sur ce modèle simplifié ? Tout cela dépend de la validité du modèle sim- plifié et de l’idée que, in fine, il est une version approchée, mais satisfaisante, de notre Univers. J’aimerais avoir la certitude que si nous comprenons le modèle simplifié, nous comprendrons la réalité.» Les participants du projet IfQ font le pari qu’en partant d’un tableau simplifié plus facile à manipuler, ils pourront à terme y greffer la complexité néces- saire pour appliquer la théorie au monde réel. Malgré ces réserves, les physiciens affir- ment que l’approche vaut la peine d’être ten- tée. Elle a déjà ouvert de nouvelles pistes de recherche intéressantes. « Je pense depuis longtemps que la relation entre l’information quantique et la gravitation quantique est d’une importance fondamentale », confie Raphael Bousso, physicien à l’université de Californie à Berkeley. « La connexion s’est approfondie au fil des ans, et je suis ravi de voir autant de chercheurs talentueux travail- ler ensemble pour s’atteler à ces questions et voir où elles nous mènent. »

Théoricienne à l’université Stanford, Eva Silverstein, qui elle non plus n’est pas membre du projet, est du même avis: « Il est clairement utile de développer l’information quantique et de l’appliquer à ces problèmes. Mais pour com- prendre la dynamique [de la gravitation quan- tique], il faut encore d’autres éléments, et il est important que la discipline ne se concentre pas trop sur une approche unique.» UN PROJET QUI PORTERA DES FRUITS

De plus, même si le projet n’aboutit pas au développement d’une théorie quantique de la gravitation, il aura vraisemblablement des retombées fructueuses. L’application de tech- niques et d’idées inspirées de la théorie des cordes et de la relativité générale à des ques- tions d’information quantique aidera, par exemple, à mieux définir les différents types d’intrication quantique, à la fois pour com- prendre l’espace-temps et pour construire des ordinateurs quantiques.

« Quand vous commencez à jouer avec ces outils dans un cadre différent, il y a de bonnes chances que cela mène à de nouvelles idées qui sont intéressantes et qui pourraient être utiles dans d’autres domaines », s’enthousiasme Dorit Aharonov, spécialiste en informatique quantique à l’université hébraïque de Jérusalem et participante au projet IfQ. « Il semble que l’on soit en train de progresser sur des ques- tions posées depuis de nombreuses années, ce

BIBLIOGRAPHIE V. BALASUBRAMANIAN ET AL., Superluminal chaos after a quantum quench, Journal of High Energy Physics, art. 132, 2019. X. DONG ET AL., Flat entanglement spectra in ftxed- area states of quantum gravity, Journal of High Energy Physics, vol. 1910, art. 240, 2019. J. OPPENHEIM, A post-quantum theory of classical gravity ?, 2018. arxiv.ORG/ABS/1811.03116 P. BINÉTRUY, Au-delà de la relativité générale: «une théorie quantique de la gravitation est nécessaire», Pour la Science, n° 457, novembre 2015. Site internet du projet It from Qubit : http://bit²ly/PLS475_IfQ

qui est passionnant.» Par exemple, des cher- cheurs ont trouvé qu’il serait possible de mesu- rer le temps à l’intérieur d’un trou de ver en le représentant comme un circuit quantique, que l’utilisation de la théorie des cordes et de l’in- trication permet de définir certaines phases de la matière condensée, etc.

En outre, combiner information quantique et théorie des cordes aiderait aussi à évaluer les théories que les chercheurs proposeront. On peut se représenter n’importe quelle théorie physique comme un ordinateur, ses entrées et ses sorties étant l’équivalent d’un état initial et d’un état ultérieur, mesurable, décrits par la théorie. Lorsque les chercheurs proposeront une théorie candidate pour la gravitation quan- tique, ils pourront la tester avec cette analogie et se demander quelle est la puissance de calcul de la théorie. « Si cette puissance est trop grande, si notre modèle de gravitation quan- tique était capable de calculer des choses dont nous pensons qu’elles ne peuvent pas être cal- culées dans notre monde, cette théorie susci- terait un doute », explique Dorit Aharonov. « C’est un moyen de dire, par une approche différente, si la théorie tient la route ou non.» Le projet It from Qubit rappelle à certains physiciens une autre époque grisante où de grandes idées voyaient le jour. « J’ai commencé ma thèse en 1984, au moment de la révolution de la première théorie des cordes», dit Hirosi Ooguri, physicien à Caltech, l’institut de tech- nologie de Californie. « C’était une période très enthousiasmante, où la théorie des cordes émergeait en tant que principale candidate pour une théorie unifiée de toutes les forces de la nature. Je vois d’un même œil l’actuelle explosion d’intérêt autour de ces idées. C’est clairement une époque passionnante pour les jeunes de la discipline comme pour ceux d’entre nous qui ont obtenu leur thèse de doc- torat il y a plusieurs décennies.» n

Le darwinisme quantique à l'heure des tests

Le darwinisme quantique est une des pistes explorées pour expliquer le passage du monde quantique à la réalité objective classique. Trois expériences récentes soutiennent le bien-fondé de cette idée.

a physique quantique dépeint un monde étrange et contre-intuitif. De fait, il ne res- semble en rien à celui dont nous faisons l’expérience au quotidien, au moins mécani- quement parlant. Jusqu’au xxe siècle, tout le monde pensait que les lois de la physique clas- sique formulées par Isaac Newton et d’autres s’appliquaient à toutes les échelles. Dans ce cadre, n’importe quel objet a une position et des propriétés bien définies à tous moments. Ce n’est pas le cas.

Max Planck, Albert Einstein, Niels Bohr et leurs contemporains ont découvert que, à l’échelle des atomes et des particules subato- miques, cette loi de bon sens disparaît, englou- tie dans un océan de possibilités. On ne peut pas, par exemple, assigner une position définie à un atome : on peut à peine calculer la

probabilité de le trouver en tel endroit. La question devient alors: comment des probabi- lités du monde quantique peuvent- elles se métamorph oser en la réalité tangible du monde classique?

À propos de ce phénomène, les physiciens parlent de «  transition quantique- classique». Toutefois, on découvre depuis peu qu’il n’y a pas de raison de penser que les règles changent selon les échelles, petite ou grande. En d’autres termes, aucune transition soudaine ne marque le passage entre les deux. Ces dernières décen- nies, des chercheurs ont mieux compris com- ment la mécanique quantique devient classique lorsqu’une particule, ou un autre système microscopiq ue, interagit avec son environneme nt. LA SURVIE DU PLUS APTE

Dans ce cadre, l’une des idées les plus inté- ressantes est que les propriétés classiques des objets (comme la position et la vitesse), résultent d’une sélection au sein d’un champ de possibilités quantiques selon un processus analogue à la sélection naturelle dans le monde vivant. Les propriétés qui survivent sont, en quelque sorte, les plus «  adaptées ». Ce sont elles qui génèrent ensuite le plus de copies d’elles- mêmes pour qu’en fin de compte de nombreux observateurs indépendants puissent mesurer un système quantique et se mettre d’accord sur le résultat. On retrouve alors une caractéristique du monde classique. >

Le darwinisme quantique

L’ESSENTIEL ? La transition quantique- classique intrigue les physiciens depuis le début du xxe siècle. Comment les propriétés contre-intuitives du monde quantique disparaissent-elles à l’échelle macroscopique? ? Pour l’expliquer, les physiciens Dieter Zeh et Wojciech Zurek ont développé une théorie, le darwinisme quantique.

? Elle stipule que des copies de l’état quantique d’un système sont transférées à l’environnement et que seules les plus robustes, les plus aptes, peuvent être observées. ? Ces idées ont récemment été testées par trois expériences distinctes.

L’AUTEUR

PHILIP BALL est journaliste scientiftque. Il contribue régulièrement à Quanta Magazine, mais aussi à Nature, New Scientist…

Cet article a d’abord été publié en anglais par Quanta Magazine, une publication en ligne indépendante soutenue par la Simons Foundation aftn de favoriser la diffusion des sciences: http://bit²ly/QM- QDarwin

> Cette idée, le darwinisme quantique, explique pourquoi nous percevons le monde de façon « classique», et non de la manière si particulière avec laquelle il se manifeste à l’échelle des atomes et des particules fonda- mentales. Bien que certains aspects de l’énigme restent à préciser, le darwinisme quantique aide à bâtir des ponts au-dessus de la faille, seulement apparente, qui sépare la physique quantique de la physique classique. Cette idée a quitté récemment le monde théorique pour celui des tests expérimentaux. Trois groupes de recherche, travaillant indé- pendamment en Italie, en Chine et en Allemagne, se sont mis en quête de la signature de ce processus de sélection naturelle quan- tique. Ces tests sont rudimentaires, et demandent à être confirmés, mais jusqu’à pré- sent, la théorie se vérifie. STRANGER THINGS

Au cœur du darwinisme quantique se trouve la notion incertaine de mesure – le pro- cessus d’observation. En physique classique, ce que l’on voit est simplement ce qui est. Et il n’y a rien à ajouter. En physique quantique, ce n’est plus vrai. Les mathématiques for- melles de la mécanique quantique ne disent rien d’évident sur « la nature des choses» dans un objet quantique; elles ne sont qu’une indi- cation sur ce que nous pourrions voir si nous le mesurions. Ainsi, une particule quantique peut avoir un éventail d’états possibles que l’on dit « superposés ». Cela ne signifie pas qu’elle est dans différents états en même temps, mais plutôt que, si nous la mesurions, nous observerions l’une de ces possibilités. Avant la mesure, les différents états superpo- sés interfèrent, et peuvent chacun constituer le résultat avec une probabilité propre.

Mais pourquoi ne pouvons-nous pas voir une superposition quantique ? Pourquoi tous les états possibles d’une particule ne sur- vivent-ils pas jusqu’à l’échelle humaine ? On répond souvent que les superpositions sont fragiles, facilement perturbées par le bruit de l’environnement. Ce n’est pas tout à fait exact. Lorsque deux objets quantiques interagissent, ils s’enchevêtrent, et adoptent un état quan- tique partagé où les possibilités pour leurs propriétés sont interdépendantes, c’est l’intri- cation quantique.

Prenons un atome dans une superposi- tion de deux états possibles pour son spin : « haut » et « bas ». L’atome est ensuite libéré, et heurte une molécule de l’atmosphère avec laquelle il s’intrique ; les deux sont désormais dans une superposition jointe. La molécule d’air peut être poussée dans un sens quand le spin de l’atome est « haut » et dans un autre avec un atome au spin « bas ». Ces deux pos- sibilités coexistent.

Chaoyang Lu (à gauche) et Jian-Wei Pan (à droite) ont récemment dirigé une expérience qui a testé le darwinisme quantique dans un environnement artificiel composé de photons en interaction.

À mesure que ces particules rencontrent d’autres molécules dans l’air, l’intrication se répand, et la superposition initialement spéci- fique à l’atome se diffuse. Les états superposés de l’atome n’interfèrent plus de façon cohé- rente, car ils sont désormais intriqués avec d’autres états dans l’environnement, parmi les- quels, peut-être, se trouve un instrument de mesure. Pour celui-ci, la superposition de l’atome a disparu et a été remplacée par une liste de résultats classiques qui n’interfèrent plus.

Cette disparition du « caractère quan- tique» d’un système dans l’environnement est la décohérence. C’est l’événement crucial de la transition quantique-classique, qui explique pourquoi un comportement quantique est dif- ficile à observer dans des systèmes macrosco- piques. Ce processus est extrêmement fugace. Étonnamment, bien que la décohérence soit inhérente à la mécanique quantique, elle n’a été identifiée que dans les années 1970, par l’Allemand Heinz-Dieter Zeh. L’Américano- Polonais Wojciech Zurek, aujourd’hui au Laboratoire national de Los Alamos, dans le Nouveau-Mexique, développa l’idée au début des années 1980 et la popularisa.

Mais pour expliquer l’émergence de la réa- lité classique et objective, il ne suffit pas de dire que la décohérence efface le comporte- ment quantique d’un système. D’une certaine façon, plusieurs observateurs peuvent s’accor- der sur les propriétés d’un système quantique. Pour ce faire, Wojciech Zurek, estime que deux conditions doivent être remplies.

D’abord, les systèmes quantiques doivent avoir des états particulièrement robustes, face à la décohérence perturbatrice de l’environne- ment. Wojciech Zurek parle d’« états poin- teurs » parce qu’ils peuvent être représentés par une aiguille pointant une position sur le

cadran d’un instrument de mesure. De tels états pointeurs sont par exemple la position d’une particule, sa vitesse, la valeur de son spin... Selon le physicien, le comportement classique d’un système quantique est unique- ment possible parce que des états pointeurs des objets quantiques existent.

Un état pointeur a la particularité de ne pas être brouillé par les interactions avec l’environnement qui induisent la décohé- rence. L’état pointeur est soit préservé, soit simplement transformé en un état qui paraît quasiment identique. Cela implique que l’environnement ne balaie pas le caractère quantique d’un objet sans discrimination ; il sélectionne cer- tains états et supprime les autres. La position d’une particule est résiliente à la décohérence, par exemple. Ce n’est pas le cas des superpositions de diffé- rentes localisations : les interactions avec l’environnement les décomposent en états pointeurs localisés, de sorte que seul l’un d’entre eux peut être

LE DARWINISME QUANTIQUE EXPLIQUE LE CARACTÈRE

dans l’environnement soient réellement lues par un observateur humain; seul compte pour l’émergence d’un comportement classique que les informations soient là afin qu’elles puissent être lues en principe. « Un système n’a aucu- nement besoin d’être étudié de manière for- melle» pour devenir classique, explique Jess Riedel, physicien de l’institut Perimeter de physique théorique, à Waterloo, au Canada, ancien étudiant de Wojciech Zurek et partisan du darwinisme quantique. Selon lui, cette théorie explique, ou aide à expliquer, tout ce qui relève du classique, y compris les objets macroscopiques quotidiens éloignés de tout laboratoire, ou qui exis- taient avant qu’il n’y ait des humains. REDONDANCE ET MONDE CLASSIQUE

Les deux physiciens ont montré que, en théorie, des informations issues d’un système quantique simple et idéalisé sont copiées en grand nombre dans l’en- vironnement, de sorte qu’il est seule-

observé ; il est sélectionné. IMPRIMÉES DANS L’ENVIRONNEMENT

Mais une propriété quantique doit remplir une seconde condition pour être observée. Son immunité aux interactions avec l’environnement assure la stabilité d’un état pointeur, mais nous avons tout de même besoin d’accéder aux informa-

CLASSIQUE DE TOUT CE QUI EXISTAIT AVANT LES HUMAINS

ment nécessaire d’accéder à une petite partie de cet environnement pour déduire les valeurs des variables. Ils ont calculé qu’un grain de poussière d’un micromètre, après avoir été illuminé par le soleil pendant une microseconde, verra sa localisation imprimée environ 100 millions de fois dans les photons dispersés. C’est grâce à cette redondance que les

tions qui le concernent. Cela n’est possible que si elles sont imprimées dans l’environnement de l’objet. Lorsque vous voyez un objet, cette information est conduite jusqu’à votre rétine par les photons qu’il renvoie. Ils transportent l’information jusqu’à vous sous la forme d’une réplique partielle de certains aspects de l’objet, ce qui vous informe sur sa position, sa forme et sa couleur. De nombreuses répliques sont nécessaires si plusieurs observateurs doivent s’accorder sur une valeur mesurée. Ainsi, comme Wojciech Zurek le disait dans les années 2000, notre capacité à observer une propriété dépend non seulement de sa sélec- tion comme état pointeur, mais aussi de l’ampleur de la trace qu’elle laisse dans l’envi- ronnement. Les états les plus aptes à créer des répliques dans l’environnement sont les seuls à être accessibles à nos mesures. C’est le darwinisme quantique.

Il se trouve que la même propriété de sta- bilité qui favorise la sélection induite par l’en- vironnement des états pointeurs favorise également la valeur adaptative darwinienne quantique, autrement dit la capacité à générer des répliques.

Peu importe, bien sûr, que des informa- tions sur un système quantique s’imprimant

Wojciech Zurek a développé la théorie du darwinisme quantique dans les années 2000 afin d’expliquer l’émergence de la réalité classique et objective.

propriétés classiques et objectives existent. Dix observateurs peuvent chacun mesurer la posi- tion d’un grain de poussière et trouver la même localisation, car chacun accède à une réplique distincte de l’information. Ainsi, on peut assi- gner une «position» objective au grain; non pas parce qu’il «  a» cette position (quoi que cela veuille dire), mais parce que son état de posi- tion imprime dans l’environnement de nom- breuses répliques identiques et accessibles à divers observateurs. Ces derniers convergent donc vers un consensus.

Par ailleurs, il n’est pas nécessaire d’étu- dier plus d’une fraction de l’environnement pour rassembler la plupart des informations disponibles. Cette redondance est la caracté- ristique du darwinisme quantique, selon Mauro Paternostro, physicien à la Queen’s University, à Belfast, et impliqué dans l’une des trois nouvelles expériences. « C’est même cette redondance qui caractérise la transition vers le monde classique.»

Selon le chercheur en physique théorique Adán Cabello, de l’université de Séville, en Espagne, le darwinisme quantique bouscule une idée reçue tenace en mécanique quantique: la transition entre les mondes quantique et classique ne serait pas comprise et les mesures >

> ne pourraient pas être décrites par la théorie quantique. En fait, ce serait tout le contraire! Cependant, cette vision fait encore débat. Bien que ces idées tentent d’expliquer pour- quoi les superpositions disparaissent à grande échelle et pourquoi seules les propriétés « clas- siques» concrètes demeurent, il reste à déter- miner pourquoi les mesures livrent des résultats uniques. Quand une position donnée d’une particule est sélectionnée, qu’arrive-t-il aux autres possibilités inhérentes à sa descrip- tion quantique? Ont-elles seulement été réelles à un moment donné? Les chercheurs ont long- temps été contraints de recourir à des interpré- tations philosophiques de la mécanique quantique précisément parce que personne n’avait de solution expérimentale à proposer pour répondre à cette question. AU CŒUR DU LABORATOIRE

Le darwinisme quantique était-il condamné à ne rester convaincant que sur le papier ? Non, en 2019, trois équipes de cher- cheurs ont indépendamment soumis la théo- rie à des tests expérimentaux en cherchant sa caractéristique clé : comment un système quantique imprime des répliques de lui-même dans son environnement.

Les expériences dépendaient de la capacité à étudier minutieusement quelles informations relatives à un système quantique sont trans- mises à son environnement. Ce n’est pas pos- sible pour un grain de poussière flottant parmi des milliards de molécules d’air, par exemple. Ainsi, deux des équipes ont créé un objet quan- tique dans un « environnement artificiel» qui ne contenait que quelques particules.

Les deux expériences – l’une par Mauro Paternostro et des collaborateurs à l’université de La Sapienza, à Rome, l’autre par Jian-Wei Pan et ses collègues de l’université des sciences et des technologies, à Hefei, en Chine – ont utilisé un seul photon comme système quan- tique, et une poignée d’autres comme « environnement».

Les deux équipes ont fait passer des pho- tons d’un laser à travers des dispositifs optiques qui peuvent les combiner en plusieurs groupes intriqués. Ils ont ensuite sondé les photons de l’environnement pour déterminer quelles informations ils avaient encodées à propos de l’état pointeur du photon du système, ici sa polarisation (l’orientation de ses champs élec- tromagnétiques oscillants), l’une des proprié- tés quantiques capables de passer à travers le filtre de la sélection darwinienne quantique.

L’une des prédictions clés de cette théorie est l’effet de saturation: quasiment toute l’in- formation qu’il est possible de rassembler sur un système quantique devrait être accessible rien qu’en étudiant une poignée de particules environnantes. « N’importe quelle petite

fraction de l’environnement après interaction est suffisante pour fournir un maximum d’infor- mations classiques sur le système observé», explique Jian-Wei Pan.

C’est précisément ce qu’ont montré les deux équipes. Les mesures d’un seul photon de l’environnement ont suffi à révéler une grande partie des informations sur la polarisation du photon du système. Qui plus est, mesurer une fraction croissante des photons de l’environ- nement était moins efficace. Même un seul photon peut jouer le rôle d’un environnement entraînant décohérence et sélection, précise Jian-Wei Pan, s’il interagit suffisamment avec le photon solitaire du système quantique ini- tial. Lorsque les interactions sont plus faibles, une plus grande part de l’environnement doit être étudiée.

On doit le troisième test expérimental du darwinisme quantique à Fedor Jelezko, de l’uni- versité d’Ulm, en Allemagne, en collaboration avec Wojciech Zurek et d’autres. Ils ont utilisé un système et un environnement très diffé- rents, consistant en un centre azote-lacune (noté centre NV, pour nitrogen vacancy). Dans le réseau cristallin d’un diamant, un atome de carbone est remplacé par un atome d’azote. L’atome d’azote possède un électron de plus que le carbone, qui ne peut donc pas s’apparier avec un électron des atomes voisins de carbone pour former une liaison chimique. Résultat : l’électron célibataire de l’atome d’azote agit comme un «spin» solitaire, c’est-à-dire comme une flèche pointant vers le haut, le bas ou, en général, dans une superposition de ces deux directions possibles.

Ce spin peut interagir magnétiquement avec ceux des quelque 0,3% de noyaux de car- bone présents dans le diamant sous la forme de l’isotope carbone 13, qui contrairement au car- bone 12, plus abondant, possède aussi un spin.

Fedor Jelzko (à gauche) et son équipe ont sondé l’état d’un défaut d’azote à l’intérieur d’un diamant synthétique (à droite) en étudiant les atomes de carbone voisins. Leurs résultats confirment la théorie du darwinisme quantique.

En moyenne, chaque spin azote-lacune est for- tement associé à quatre spins de carbone 13 à une distance d’environ 1 nanomètre.

En contrôlant et étudiant les spins à l’aide de lasers et d’impulsions radiofréquences, les chercheurs ont pu mesurer comment un chan- gement dans le spin de l’azote est enregistré par les changements dans les spins nucléaires de l’environnement. Comme ils l’ont rapporté en septembre 2019, ils ont également observé la redondance caractéristique prédite par le darwinisme quantique : l’état du spin de l’azote est « enregistré» sous la forme de copies mul- tiples dans l’environnement, et les informa- tions sur le spin saturent d’autant plus rapidement que la fraction de l’environnement considérée est plus grande.

Selon Wojciech Zurek, les expériences avec les photons créent des copies d’une façon arti- ficielle, laquelle ne fait que simuler un véri- table environnement, elles n’intègrent pas un véritable processus de sélection qui extrairait des états pointeurs naturels résilients à la décohérence. Ce sont plutôt les chercheurs qui imposent les états pointeurs.

Par contre, l’environnement dans le dia- mant suscite bien des états pointeurs, même si « l’expérience pose aussi un problème à cause de la taille de l’environnement, ajoute Wojciech Zurek, mais au moins celui-ci est naturel.» GÉNÉRALISER LE DARWINISME QUANTIQUE

Jusqu’à présent, tout va bien pour le darwi- nisme quantique. « Toutes ces études révèlent ce à quoi on s’attendait, du moins approxima- tivement», précise Wojciech Zurek.

Jess Riedel estime qu’on pouvait difficile- ment s’attendre à autre chose. Selon lui, cette théorie n’est que l’application prudente et sys- tématique de la mécanique quantique standard

BIBLIOGRAPHIE T. UNDEN ET AL., Revealing the emergence of classicality in nitrogen-vacancy centers, Phys. Rev. Lett., vol. 123, 140402, 2019. M.-C. CHEN ET AL., Emergence of Classical Objectivity of Quantum Darwinism in a Photonic Quantum Simulator, Science Bulletin, vol. 64, pp. 580-585, 2019. M. CIAMPINI ET AL., Experimental signature of quantum Darwinism in photonic cluster states, Phys. Rev. A, vol. 98, 020101, 2018. C. RIEDEL ET W. ZUREK, Quantum Darwinism in an Everyday Environment: Huge Redundancy in Scattered Photons, Phys. Rev. Lett., vol. 105, 020404, 2010. W. ZUREK, Quantum Darwinism, Nature Physics, vol. 5, pp. 181-188, 2009.

à l’étude de l’interaction d’un système quan- tique avec son environnement. Bien que cela soit virtuellement impossible à faire en pra- tique pour la plupart des mesures quantiques, les prédictions sont claires, si l’on peut suffi- samment simplifier une mesure : « le darwi- nisme quantique ressemble plutôt à un contrôle interne d’autocohérence effectué sur la théorie quantique elle- même.»

Toutefois, bien que ces études soient cohé- rentes avec la théorie, elles ne peuvent pas encore faire office de preuve définitive. Par exemple, rappelle Adán Cabello, les trois expé- riences ne proposent que des versions sché- matiques de ce qu’est réellement un environnement.

Par ailleurs, ces expériences n’écartent pas toute autre explication du passage vers le clas- sique. Ainsi, une alternative nommée « théorie du spectre de diffusion », développée par Pawel Horodecki, de l’école polytechnique de Gda?sk, en Pologne, et ses collaborateurs, tente de généraliser le darwinisme quantique. La théorie du spectre de diffusion (qui n’a été traitée que pour quelques cas idéalisés) iden- tifie les états d’un système quantique intriqué avec son environnement, lesquels fournissent des informations objectives que de nombreux observateurs peuvent obtenir sans les pertur- ber. En d’autres termes, elle vise à assurer non seulement que différents observateurs peuvent accéder aux répliques du système dans l’envi- ronnement, mais aussi qu’en agissant de la sorte, ils n’affectent pas les autres répliques. Et cette propriété est aussi une caractéristique des mesures classiques.

Pawel Horodecki et d’autres théoriciens ont aussi cherché à intégrer le darwinisme quantique dans un cadre théorique qui n’im- pose pas de séparation arbitraire entre un système d’une part et son environnement de l’autre. L’idée est ici de comprendre com- ment la réalité classique peut émerger des interactions entre différents systèmes quan- tiques. Pourra-t-on trancher ? Pas sûr. Mauro Paternostro estime que les prédictions de ces théories se distinguent de façon très sub- tile, et peut-être trop pour être révélées expérimentalement.

Quoi qu’il en soit, les chercheurs pour- suivent leurs efforts, et de toute façon nous en saurons plus sur le fonctionnement du monde quantique. « La meilleure raison d’effectuer ces expériences repose probablement dans le fait qu’elles constituent un très bon exercice, remarque Jess Riedel. L’illustration directe du darwinisme quantique peut nécessiter des mesures très difficiles qui repousseront les limites des techniques de laboratoire actuelles. » La seule façon de découvrir ce qu’une mesure signifie réellement, semble-t-il, est d’effectuer de meilleures mesures. n

L’ESSENTIEL ? La physique quantique est bien embarrassée par le rôle à attribuer aux observateurs. ? Plusieurs expériences de pensée poussent dans leurs retranchements les différentes théories en lice.

? Elles obligent à renoncer à certaines hypothèses a priori raisonnables de la physique quantique: l’universalité, la cohérence et l’unicité du résultat d’une mesure. ? Des versions expérimentales de ces raisonnements existent désormais.

L’AUTEUR

SEAN BAILLY est journaliste au magazine Pour la Science.

L’ami de Wigner, un paradoxe mis à l’épreuve En physique quantique, le rôle attribué à l’observateur varie de simple figurant à acteur central selon les diverses interprétations de la théorie. Comment y voir plus clair ? Grâce à une version améliorée de l’expérience de pensée « l’ami de Wigner ».

n 1935, Erwin Schrödinger, l’un des fondateurs de la physique quantique, imaginait sa célèbre expérience de pensée du chat dans sa boîte. Aujourd’hui, cette histoire est utilisée pour illustrer auprès du grand public certains des aspects les plus surprenants et contre-intuitifs de la physique quantique: le chat, exposé à un

dispositif mortel au déclenchement aléatoire (de nature quantique comme la désintégration d’un atome radioactif), est à la fois « vivant» et « mort » dans la boîte fermée. Mais cette expérience de pensée souligne aussi certaines des questions fondamentales de la physique quantique qui sont encore aujourd’hui sans réponses.

L’« ami de Wigner » est une sorte de version revisitée du chat de Schrödinger avec des cher- cheurs qui font des expériences de physique quantique dans leurs laboratoires (l’équiva- lent de la boîte du chat). En 2016, Daniela Frauchiger et Renato Renner, de l’école poly- technique fédérale de Zurich, ont proposé une nouvelle expérience de pensée inspirée de celle de Wigner, mais plus subtile, qui permet de sonder les fondements des diverses inter- prétations de la physique quantique.

Lorsque les deux physiciens ont soumis leur idée, les réactions ont été vives au sein de la communauté des chercheurs. En effet, cette >

Cette particule est dans un état quantique particulier. Quel sens donnerez-vous à sa mesure ?

Eugene Wigner, physicien théoricien américain d’origine hongroise, a été l’un des fondateurs de la théorie quantique.

Il a reçu le prix Nobel de physique en 1963.

> expérience mettait en évidence des contradic- tions dans la théorie quantique. Comment devait-on comprendre ce résultat, et quelles conséquence s pouvait-il avoir sur l’interpré- tation de la physique quantique ? Bien que conçue au départ comme une expérience de pensée, une version de cette idée a été mise en œuvre en laboratoire en 2019 sous l’impul- sion de Massimilian o Proietti, de l’université Heriot- Watt, à Édimbourg, et ses collègues. Comprenon s-nous alors mieux ? Pas sûr… UNE THÉORIE EFFICAC E

Au vu de ces questions théoriques et presque philosophiq ues, la physique quan- tique semble être incomplète, encore à construire. En effet, son statut est étrange et peut-être unique dans l’histoire des sciences. Dès sa naissance dans les années 1920, elle s’est imposée comme la théorie rendant le mieux compte des phénomène s à l’échelle microscopiq ue. Dans les années 1940, le phy- sicien américain Richard Feynman et d’autres ont utilisé la physique quantique pour décrire les interactions de la matière et de la lumière. En un mot, elle est une théorie testée avec une précision inégalée et jamais mise en défaut par l’expérience. Aujourd’hui encore, elle s’impose et est omniprésent e dans les technologies des objets de notre quotidien : ordinateurs, télé- phones, fibres optiques, etc.

Pourtant , cette théorie, si efficace, reste muette sur de nombreuses questions concer- nant sa nature profonde. Elle repose en effet

sur des axiomes et des définitions dont l’ori- gine ou les justifications ne sont pas toujours très claires.

Pour avancer sur ces questions et mieux comprendre les fondements de la physique quantique, les chercheurs se sont parfois appuyés sur des expériences de pensée, notamment pour tenter d’y trouver des failles, c’est en particulier le cas d’Erwin Schrödinger et de son chat ou encore d’Albert Einstein et son paradoxe EPR (du nom de ses inventeurs en 1935 : Einstein, Nathan Rosen et Boris Podolsky) sur l’intrication quantique (voir Pas d’échappatoire pour l’intrication, par R. Hanson, page 26). UN FLOU QUANTIQUE

Pour comprendre l’enjeu de ces différentes expériences de pensée, il faut revenir à la ques- tion de la mesure en physique quantique et au rôle de l’observateur. Concrètement, un sys- tème quantique est décrit par un objet mathé- matique nommé « fonction d’onde». Souvent, on considère que celle-ci n’indique pas quel est l’état du système à un moment donné, mais permet de calculer les probabilités d’obtenir un résultat donné lors d’une mesure. Ainsi, si l’on s’intéresse à la position d’une parti- cule, et parce que la fonction d’onde est spa- tialement étendue, on aura une certaine chance de trouver la particule à tel endroit ou à tel autre. Avant la mesure, la particule n’a pas de position définie, on a une sorte de « flou quantique » et seule la mesure « maté- rialise » cette position.

De façon plus générale, une fonction d’onde regroupe tous les états accessibles au système. Celui- ci est dit dans une « superpo- sition d’états ». Par exemple, prenons un électron dont le spin (une propriété pure- ment quantique) peut être orienté vers le haut ou vers le bas. Alors l’électron peut être dans une superposition de l’état « haut » et de l’état «  bas ». Si on veut maintenant mesu- rer le spin de la particule, cette opération a un impact radical sur le système : la fonction d’onde «  s’effondre », c’est-à-dire que l’obser- vateur ne constate qu’un seul de ces deux états. L’électron reste dans l’état mesuré soit « haut » soit « bas ».

Par rapport à notre expérience de tous les jours, le phénomène de superposition quan- tique est difficile à comprendre. On pourrait avoir l’impression que le fait de lancer un dé dans une boîte fermée conduirait à une superposition des états « le dé est égal à 1 », « le dé est égal à 2 »… Si on ouvre la boîte avec le dé, on révèle un état préexistant. Ce n’est cependant pas la même chose que la super- position quantique, car il est possible de réa- liser certaines mesures (la physique quantique permet de mesurer l’intérieur de

la boîte sans simplement l’ouvrir) dont le résultat ne peut s’expliquer que par le forma- lisme quantique. Il est difficile de se faire une représentation mentale correcte de la super- position tant elle lutte avec notre intuition de tous les jours. Pourtant, à l’échelle micros- copique, la superposition des états est un phénomène incontestable.

La mesure, et donc l’action d’un observa- teur, a un effet irrémédiable sur un système quantique, il détruit l’effet de superposition et fait qu’on ne voit que des états bien définis. Mais la mesure et l’action de l’observateur sur la destruction de l’effet de superposition sou- lèvent de nombreuses questions. Avant la mesure, l’évolution du système est décrite par l’équation de Schrödinger, une équation par- faitement déterministe et réversible. En revanche, la mesure est une opération qui introduit une irréversibilité brutale dans le système. Et elle est fondamenta- lement aléatoire en reposant sur des lois probabilistes. Comment s’opère exacte- ment cette transition lors de la mesure ? Autre problème, dans la formulation

L’IDÉE QU’UN CHAT

définissent un observateur? La théorie quan- tique ne fournit aucune réponse. Est-ce uni- quement une question de taille ? La réponse est délicate. En 2019, l’équipe de Markus Arndt, de l’université de Vienne, en Autriche, a démontré que si on contrôle parfaitement un système il est possible d’observer des effets de superposition pour des molécules contenant pas moins de 2000 atomes. À ce stade, l’obs- tacle semble donc surtout technique. L’ABSURDE CHAT

Erwin Schrödinger avait identifié ce pro- blème et n’était pas très satisfait de la situa- tion. Il l’a illustré avec son expérience de pensée du chat dans sa boîte que nous avons décrite. Pour un observateur à l’extérieur de la boîte, tant qu’il ne regarde pas ce qui se passe à l’intérieur, la fonction d’onde qui décrit l’atome radioactif est une super- position des états «  intact » et « désinté- gré », mais qu’en est-il du chat ? Son état se retrouve intriqué avec celui de l’atome (ce qui signifie qu’on ne peut pas les décrire indépendamment l’un de

de la physique quantique, rien n’em- pêche le phénomène de superposition de se propager des échelles microsco- piques à des systèmes de plus en plus grands. Par exemple, partant d’un élec- tron dans l’état superposé « haut » et « bas », si l’on utilise un instrument de mesure pour déterminer l’orientation du spin, on peut considérer le système « électron + appareil de mesure» comme un ensemble qui interagit et devient lui- même superposé : « l’instrument a mesuré l’électron dans l’état haut » et « l’instrument a mesuré l’électron dans

PUISSE ÊTRE DANS UNE SUPERPOSITION D’ÉTATS SEMBLAIT ABSURDE POUR SCHRÖDINGER

l’autre), l’ensemble « atome + chat » est donc dans une superposition d’états « atome intact, chat vivant » et «  atome désintégré, chat mort ». Évidemment quand l’observateur ouvre la boîte, le chat est soit « vivant » soit «  mort ». Cette idée qu’un système aussi macros- copique qu’un chat puisse être dans une superposition d’états semblait absurde pour Schrödinger.

En outre, s’il n’y a pas d’observateur pour provoquer l’effondrement de la fonction d’onde, le chat reste-t-il dans une superposition d’états ? Et si l’on

l’état bas ». On pourrait utiliser un autre appareil plus grand pour mesurer cet instru- ment, et la superposition devrait encore se propager. Or on n’observe pas ce phénomène à l’échelle macroscopique : comment cette chaîne s’arrête-t-elle ?

Dans la vision très orthodoxe de l’école de Copenhague, prônée par ses pères fondateurs le Danois Niels Bohr et l’Allemand Werner Heisenberg – que le physicien américain David Mermin a caricaturé par une remarque célèbre: « Tais-toi et calcule» –, l’intrication s’arrête à l’échelle de l’observateur, c’est-à-dire un sys- tème assez complexe et grand qui ne peut pas être en superposition. On parle de « coupure de Heisenberg». Selon cette approche, il n’est pas possible d’appliquer les outils de la phy- sique quantique à un observateur ou tout sys- tème macroscopique.

Cette limite entre le système quantique mesuré d’un côté et l’observateur de l’autre semble pourtant assez arbitraire. Comment s’établit cette frontière ? Quels critères

étend la question à l’ensemble de l’Univers, celui-ci ne pourrait jamais être dans un état bien défini. L’observateur semble donc indis- pensable. Einstein, opposé à cette idée et fer- vent partisan d’une réalité objective de la nature, s’en était ému : « Pensez-vous que la Lune n’existe que si quelqu’un la regarde?»

La formulation de la physique quantique offre peu de moyens de répondre à ces inter- rogations. Or, à l’exception d’une poignée de chercheurs, peu de personnes se sont intéres- sées à l’interprétation de la physique quan- tique jusqu’à la Seconde Guerre mondiale. La vision de l’école de Copenhague s’était impo- sée: la physique quantique est avant tout une collection d’outils permettant de calculer les probabilités d’obtenir un certain résultat lors d’une mesure, un point c’est tout.

Malgré l’efficacité redoutable de cette vision opérationnelle de la physique quantique, des physiciens ont commencé à critiquer l’in- terprétation de Copenhague après la guerre. Était-il possible d’en formuler d’autres? Oui. >

> Dans les années 1950, inspiré par la théorie de l’onde pilote de Louis de Broglie, proposée en 1927, le physicien américain David Bohm a développé une interprétation de la physique quantique reposant sur la dualité onde- corpuscule. La particule a ici une position tou- jours bien définie et elle est guidée par une onde qui est décrite par l’équation de Schrödinger. Cette vision est à la fois réaliste et déterministe. À la même époque, son compa- triote Hugh Everett a imaginé une théorie dite «des mondes multiples». La fonction d’onde ne s’effondre jamais, lors d’une mesure, chaque état se réalise dans un monde différent. UN AMI QUANTIQUE

En 1961, Eugene Wigner, un des spécia- listes de la physique quantique (il a obtenu le prix Nobel en 1963 pour ses travaux sur la théorie de l’atome et des particules élémen- taires), a proposé une expérience de pensée connue sous le nom de « l’ami de Wigner ». Dans cette expérience, Wigner a poussé l’ex- périence du chat de Schrödinger un peu plus loin. Il voulait mettre en évidence certaines incohérences de la théorie quand il s’agit des observateurs et souligner l’importance, selon lui, de la différence entre un instrument de mesure et un observateur doté de conscience. L’idée est de remplacer le chat par un obser- vateur, le fameux « ami de Wigner», qui réalise une mesure sur un atome et d’ajouter un second observateur à l’extérieur du système qui s’intéresse au système « atome + ami de Wigner », c’est « Wigner » lui-même.

Dans cette expérience, l’ami de Wigner, dans son laboratoire, mesure le spin de l’atome (vers le haut ou vers le bas). Wigner, lui, se trouve à l’extérieur du laboratoire sans savoir quel est le résultat. Initialement, l’atome est dans un état superposé de spin

« haut » et spin « bas », jusqu’au moment où l’ami réalise sa mesure. L’atome est alors dans un état bien défini. Wigner ne peut décrire le système « ami + laboratoire» qu’avec les infor- mations limitées auxquelles il a accès. Pour lui, son ami est dans une superposition de deux états : « l’ami a mesuré un spin haut » et « l’ami a mesuré un spin bas ». Bien sûr quand il ouvre la porte, la fonction d’onde s’effondre et les points de vue de Wigner et de son ami deviennent cohérents entre eux.

Mais ce qui est paradoxal (on parle du paradoxe de Wigner) est que pendant un cer- tain temps, Wigner et son ami avaient une vision contradictoire de la situation : pour l’ami, l’atome était dans un état bien défini (celui obtenu par sa propre mesure) ; pour Wigner, l’atome était dans une superposition d’états. Quand l’effondrement de la fonction d’onde a-t-il vraiment lieu, au moment où l’ami fait sa mesure ou quand Wigner ouvre la porte ? L’ami peut même dire à Wigner qu’il a réalisé une mesure (sans lui donner la réponse) et donc Wigner sait que pour son ami l’état est bien défini mais ce n’est tou- jours pas le cas pour lui.

Ce raisonnement semble indiquer soit qu’il n’y a pas de réalité objective en physique quan- tique puisque deux personnes peuvent avoir des visions contradictoires du monde, soit qu’il y a un problème à utiliser les outils de la physique quantique (la superposition des états) sur un observateur comme l’ami de Wigner.

Dans l’interprétation de l’école de Copenhague, l’observateur est macroscopique et ne peut donc pas être dans un état de super- position. La fonction d’onde s’effondre dès la mesure de l’ami de Wigner, qui, en principe, ne devrait pas être décrit par Wigner dans une superposition d’états. « D’un point de vue mathématique, le problème apparaît dès lors

qu’on prend “la chose qui provoque l’effondre- ment de la fonction d’onde” et qu’on com- mence à la décrire quantiquement», explique Marc-Olivier Renou, de l’université de Genève. « La théorie ne définit pas ce qu’est un obser- vateur, et différentes versions sont envisa- geables. Par exemple, un être doué de conscience, ou encore un système complexe doté d’une mémoire. » Cependant, la notion de mémoire est problématique en physique quan- tique. « En effet, d’un point de vue technique, toute la bizarrerie de ces expériences est que l’on utilise des outils mathématiques unitaires et donc réversibles sur des observateurs qui ont une mémoire. Or, la mémoire est un processus irréversible (au moins pendant un certain temps) », ajoute Antoine Tilloy, de l’institut Max-Planck d’optique quantique, à Munich. « Si on applique ces outils, cela revient à effacer la mémoire des observateurs!» UNE COHÉRENCE MISE EN DÉFAUT

En 2016, Daniela Frauchiger et Renato Renner ont proposé une version améliorée de l’expérience de pensée de « l’ami de Wigner». En s’appuyant sur des hypothèses, a priori rai- sonnables (la physique quantique est valide de façon universelle, les prédictions de deux observateurs ne sont jamais contradictoires et une mesure donne un seul résultat), les deux chercheurs ont montré que deux observateurs arrivent parfois à des résultats contradictoires concernant une mesure en s’appuyant unique- ment sur des arguments issus de la théorie quantique. Pour résoudre ce problème, il faut alors accepter qu’une des hypothèses raison- nables ne soit pas valide. L’étude n’indique pas laquelle est à rejeter, mais chaque possibilité éclaire sous un nouveau jour les différentes interprétations de la physique quantique et oblige les chercheurs à bien comprendre les particularités de chaque interprétation et les principes qu’elle admet, parfois pas toujours de façon très explicite.

En quoi consiste l’expérience de pensée de Daniela Frauchiger et Renato Renner? Comparé à l’idée de Wigner, il y a maintenant quatre acteurs: Alice et l’ami d’Alice, Bob et l’amie de Bob. L’ami d’Alice est dans son labo et réalise une expérience sur un système quantique ; Alice est à l’extérieur de son labo. L’amie de Bob est dans son labo et réalise une expérience; Bob est à l’extérieur.

L’expérience commence avec l’ami d’Alice qui fait une mesure, l’équivalent d’un «pile» ou « face » avec une pièce quantique présentant une probabilité un tiers d’avoir « face» et deux tiers d’avoir « pile». Si c’est face, l’ami d’Alice prépare un électron avec un spin « bas » et l’envoie à l’amie de Bob. Si c’est « pile», le sys- tème est préparé de telle sorte que l’électron

est dans une superposition équiprobable de « haut» et « bas». Deuxième étape: l’amie de Bob mesure le spin de l’électron qu’elle a reçu. Quand elle obtient «haut», elle peut facilement déduire que l’ami d’Alice avait tiré « pile».

Qu’en est-il pour Alice et Bob ? Ils consi- dèrent, à la façon de Wigner, que leur ami respectif et son labo sont intriqués et font des prédictions sur les mesures en utilisant les règles de la physique quantique. À ce stade du raisonnement, il faut introduire la première hypothèse de l’expérience : la phy- sique quantique est valide de façon univer- selle et peut s’appliquer à tout système, peu importe sa taille et sa complexité (Q). Il n’y a donc pas de coupure de Heisenberg et on suppose une situation idéale où on contrôle parfaitement le système de sorte qu’il est possible de considérer le laboratoire et l’ami à l’intérieur dans un état de superposition. Ainsi, comme chez Wigner, l’ami d’Alice connaît précisément le résultat de son tirage, mais pour Alice, le labo et son ami sont dans un état superposé « pile » et « face ».

Dans l’expérience des deux chercheurs de Zurich, Alice opère une mesure quantique particulière sur le labo et son ami qui lui donne une certaine réponse (notée « oui » ou « non ») à partir de laquelle elle peut déduire le résultat de la mesure de l’amie de Bob. Et, en particulier, si elle obtient « oui », elle en déduit que son ami a obtenu « pile ». Pour cela, il faut faire appel à la deuxième hypo- thèse : la physique quantique présente une >

> cohérence interne, c’est-à-dire que les prédic- tions de deux observateurs font en utilisant les règles de la physique quantique ne sont jamais contradictoires (C).

Bob peut évidemment réaliser le même genre de mesure qu’Alice avec comme résultat « oui» ou « non» mais sur le labo de son amie. Le système est conçu de telle façon que si Bob obtient la réponse « oui», il doit conclure que l’ami d’Alice avait tiré « face».

Bob et Alice peuvent ensuite comparer leurs résultats. Mais pour que cela soit perti- nent, il faut introduire la troisième hypothèse: l’unicité de la mesure, qui prévoit que quand un observateur réalise une mesure, il obtient un résultat unique (S). Si l’ami d’Alice a joué à « pile» ou « face», un seul résultat a pu sortir de ce tirage ; on ne peut pas avoir simultané- ment les deux solutions.

Résultat: quand Alice obtient « oui» de sa mesure, elle conclut que le tirage était « pile»; et quand Bob obtient « oui», il déduit que le tirage était « face ». Daniela Frauchiger et Renato Renner ont montré que la plupart du temps Alice et Bob obtiennent l’un « oui », l’autre « non», donc tout est cohérent, mais… dans un cas sur douze, Alice et Bob obtiennent tous les deux « oui»! Ils ne sont donc pas d’ac- cord sur l’issue du tirage. Les deux discutent du même événement survenu dans le passé, pourtant l’un assure que le résultat était « pile » quand l’autre affirme que c’était « face». Daniela Frauchiger et

Les réactions ont été très vives ! Certains physiciens ont suggéré que cela pouvait même remettre en cause la notion de réalité objective, mais cette possibilité a été mal accueillie. Le philosophe des sciences, spé- cialiste de la physique, Tim Maudlin a par exemple écrit : « S’il n’y a pas de monde phy- sique objectif, il n’y a alors rien à étudier pour les physiciens. » De façon plus raisonnable, les chercheurs ont essayé de comprendre comment chaque interprétation se compor-

À PROPOS D’UN MÊME ÉVÉNEMENT PASSÉ, L’UN ASSURE QUE LE RÉSULTAT ÉTAIT «PILE» QUAND L’AUTRE AFFIRME QUE C’ÉTAIT «FACE»

Renato Renner ont conclu que toute théorie qui satisfait (Q), (C) et (S) simultanément pro- duit parfois des résultats contradictoires. On parle de « théorème no-go » pour dire que cette situation n’est pas physiquement acceptable. Une interprétation de la physique quantique qui serait exempte de ce type de contradiction doit donc viole r une de ces hypothèses.

Dans la première version de leur article, en 2016, les deux chercheurs de Zurich arrivaient à la conclusion que si on applique la théorie quantique à un modèle d’observateur qui utilise lui-

tait face à cette expérience de pensée. PLUS RIEN À ÉTUDIER !

Il est possible de classer les différentes interprétations selon qu’elles violent (Q), (C) ou (S). En revanche, l’expérience ne per- met pas de dire quelle piste est juste. Comme Renato Renner l’a indiqué dans Quanta Magazine, « la science s’arrête ici. Nous savons qu’une des hypothèses est fausse, mais nous ne pouvons pas vraiment donner un bon argu- ment pour dire laquelle. C’est maintenant une affaire d’interprétation et de goût.» D’ailleurs, dans la version de l’article de 2018, les deux chercheurs ont une position plus modérée et ne concluent pas nécessairement que les inco- hérences exhibées sont un argument en faveur de l’interprétation des mondes multiples. Les interprétations qui violent (Q) sont

même la théorie quantique, alors il est impossible d’avoir une interprétation cohérente de la phy- sique quantique qui repose sur l’existence d’un seul monde. En d’autres termes, la contradiction qu’ils mettent en avant serait un argument fort pour la théorie des mondes multiples d’Everett. En effet, dans ce contexte, l’hypothèse de la mesure unique (S) n’est pas vérifiée. Lors d’une mesure, chacun des états possibles donne lieu à un monde où cet état est réalisé.

celles qui ne suivent pas certaines règles de la physique quantique. C’est par exemple le cas des approches d’effondrement dynamique qui supposent un mécanisme qui fait spontané- ment s’effondrer la fonction d’onde. Avec ce processus probabiliste, plus un objet est macroscopique, plus les chances d’effondre- ment sont élevées. Cela permet d’expliquer pourquoi on n’observe pas d’effets de super- position sur des objets très étendus. La

L’expérience de pensée élaborée par Daniela Frauchiger et Renato Renner est finalement devenue une expérience réelle grâce à Massimiliano Proietti, de l’université Heriot-Watt, à Édimbourg.

coupure de Heisenberg entre les systèmes quantiques et les observateurs est alors plei- nement justifiée.

Ainsi, dans les expériences de pensée, les amis de Wigner, d’Alice et de Bob ne peuvent pas être dans un état superposé. Par ailleurs, ces approches retirent à l’observateur son rôle déclencheur de l’effondrement de la fonction d’onde. Dans la théorie proposée par l’Anglais Roger Penrose et le Hongrois Lajos Diósi, la force gravitationnelle est responsable de l’ef- fondrement. Dans une autre proposée en 1985 par les physiciens italiens Giancarlo Ghirardi, Alberto Rimini et Tullio Weber, une modifica- tion ad hoc de l’équation de Schrödinger (justi- fiée par une théorie plus fondamentale) déclenche l’effondrement de la fonction d’onde. Même si cela est moins évident a priori, la mécanique bohmienne entre aussi dans cette catégorie des interprétations qui violent (Q). Cette vision suppose une fonction d’onde glo- bale sur l’ensemble de l’expérience. Cela impose que tous les observateurs doivent avoir la même perception des choses (C) et une mesure ne peut donner qu’un seul résul- tat (S), donc (Q) est nécessairement violée d’après le théorème no-go.

La cohérence des points de vue n’est pas forcément respectée par toutes les interpréta- tions de la physique quantique. Pour celle nom- mée QBism, la fonction d’onde ne décrit pas le système lui-même mais donne l’état de connais- sance de l’observateur sur le système. Il n’y a donc pas de contradiction à avoir deux observa- teurs dont les points de vue diffèrent. Ainsi, dans son expérience, Wigner actualise sa connais- sance de l’état de l’atome quand il ouvre la porte, soit bien après que son ami a réalisé sa mesure.

« Le théorème de Daniela Frauchiger et Renato Renner montre une incompatibilité

entre (Q), (C) et (S), souligne Marc-Olivier Renou, c’est un résultat intéressant car cela impose des critères forts sur toute interpréta- tion de la physique quantique. » Ce théorème no-go n’est pas sans rappeler celui du physicien irlandais John Bell, postulé dans les années 1970 autour de la nature de l’intrication quantique (voir Pas d’échappatoire pour l’intrication, par R. Hanson, page 26). UN AUTRE THÉORÈME NO-GO

L’intrication est un phénomène fondamental en physique quantique. On dit que deux parti- cules sont intriquées quand leurs propriétés sont liées de sorte qu’on ne peut pas les décrire sépa- rément. Par exemple, prenons le cas où les deux particules sont émises simultanément depuis une source avec toujours des spins opposés. Le système est donc dans un état superposé de deux états: «particule 1, spin haut; particule 2, spin bas» et «particule 1, spin bas; particule 2, spin haut». Imaginons qu’on laisse les deux particules s’éloigner l’une de l’autre avant de mesurer le spin de la particule 1. Au moment de la mesure, on regarde la particule 1, mais c’est bien la fonc- tion d’onde globale qui s’effondre et donc la par- ticule 2 se retrouve instantanément dans l’état de spin opposé à celui mesuré de la particule 1. Comme pour le phénomène de superposi- tion, on peut avoir l’impression qu’une explica- tion classique est possible et qu’on ne fait que révéler un état prédéterminé depuis l’émission de la source. Par exemple, si on remplace la source de photons par deux gants qu’on met chacun secrètement dans une enveloppe et qu’on les expédie dans des directions opposées, on constate effectivement que si on ouvre une enveloppe et qu’on obtient le gant gauche, alors on sait instantanément que l’autre enveloppe contient le gant droit. Dans ce cas classique, on révèle un état préexistant. Mais dans l’intrica- tion quantique, il est possible de faire des mesures plus subtiles. La personne qui mesure le spin de la particule 1 peut le faire selon un angle arbitraire, par exemple 45° et pas seule- ment dans les directions «haut» et «bas». Et la personne qui fait la mesure pour la particule 2 peut aussi configurer son instrument de mesure avec l’angle de son choix. En itérant l’expérience un grand nombre de fois, les corrélations qu’on obtient entre les mesures des particules 1 et 2 ne peuvent plus s’expliquer par un raisonne- ment classique, l’intrication est bien un phéno- mène purement quantique.

À l’image du théorème de Bell, qui a ouvert la voie à des expériences sur l’intrication quan- tique, le théorème de Daniela Frauchiger et de Renato Renner peut-il être aussi testé en labo- ratoire ? Dans leur article, les chercheurs se contentent de parler d’expérience de pensée. Il y a une difficulté expérimentale certaine à vou- loir manipuler un observateur soumis à la >

> superposition des états. En effet, plus un sys- tème est grand et complexe, plus il est difficile de contrôler son caractère quantique sans que sa fonction d’onde s’effondre spontanément (en interagissant avec son environnement). Il y a aussi le problème de la mémoire qui s’efface, comme l’évoquait Antoine Tilloy. Ainsi, au sens de l’interprétation de Copenhague, un objet dont on peut effacer la mémoire ne qualifie pas en tant qu’observateur. Il faudrait donc trouver un objet qui pourrait être un observateur cré- dible et dont il est possible d’effacer la mémoire de façon cohérente. L’ordinateur quantique semble être techniquement ce qui se rapproche le plus de ces contraintes. VERS UN TEST EXPÉRIMENTAL

En 2019, Massimiliano Proietti et ses collè- gues ont réalisé une expérience dans la lignée des idées de Daniela Frauchiger et Renato Renner, mais s’inspirant surtout d’une autre expérience de pensée, proposée en 2018 par Caslav Brukner, de l’université de Vienne. Ce dernier établit un autre théorème no-go impli- quant que l’une des trois hypothèses suivantes est nécessairement violée: l’indépendance des observateurs (Alice et Bob sont libres de réaliser la mesure qu’ils veulent), la localité (les choix d’Alice et de Bob n’influent pas sur les mesures de l’autre) et l’établissement de faits objectifs, indépendants de l’observateur. Ce théorème no-go peut être reformulé en termes d’inégalités de Bell (celles qui d’après le théorème du phy- sicien sont violées dans le cas de l’intrication), ce qui ouvre la possibilité de réaliser expérimen- talement ce test de Bell-Wigner.

Dans leur expérience, Massimiliano Proietti et ses collègues ont utilisé un «ordinateur quan- tique» très simple impliquant trois paires de photons intriqués (voir la figure ci-dessus). Dans le dispositif, une source unique émettait deux photons intriqués, envoyés l’un à l’ami d’Alice et l’autre à l’amie de Bob. Et chacun de ces amis est en fait remplacé par une source de photons intriqués qui interfèrent avec les photons reçus. Avec les photons qui sont émis hors du système, Alice et Bob réalisent ensuite des tests de Bell. L’expérience a montré que l’inégalité de Bell

L’expérience de Massimiliano Proietti. Les photons (a et b) d’une paire intriquée émise par une source S0 sont envoyés respectivement vers les amis d’Alice et de Bob. Ils mesurent l’état de leur photon grâce à d’autres photons (émis par Sa et Sb) de paires intriquées (? et ?’) et (? et ?’). Les photons ?’ et ?’ sont mesurés pour valider la mesure, tandis que les photons ? et ? enregistrent les mesures des amis. Alice et Bob vérifient ensuite avec les paires (a, ?) et (b, ?) que les inégalités de Bell sont violées et déduisent par ailleurs les résultats obtenus par leurs amis. On en conclut que la physique quantique doit être interprétée de façon indépendante de l’observateur.

BIBLIOGRAPHIE M. PROIETTI ET AL., Experimental test of local observer- independence, Quantum Physics, 2019. https://arxiv.ORG/ABS/1902.05080 D. FRAUCHIGER ET R. RENNER, Quantum theory cannot consistently describe the use of itself, Nature Communications, vol. 9, art. 3711, 2019.

qu’ils avaient construite était violée. Conséquence: le théorème no-go de Caslav Brukner a été confirmé.

Pour concilier ce résultat expérimental avec le théorème no-go de Daniela Frauchiger et Renato Renner, Massimiliano Proietti et ses collègues ont noté que la violation de la localité ou de l’indépendance des observateurs ne suffit pas. Cela semble indiquer que la seule solution serait qu’il n’y a pas de réalité objective, comme le propose le QBism par exemple. Néanmoins, cette conclusion est encore soumise à d’impor- tants débats. D’autres approches pourraient passer ce test, par exemple, «la théorie de Bohm n’a aucun problème, elle est parfaitement indé- pendante de l’observateur et décrit très bien l’expérience », souligne Antoine Tilloy.

Par ailleurs, ce résultat expérimental pose de nombreuses questions. S’il n’y a pas de réa- lité objective à l’échelle microscopique, com- ment expliquer l’émergence de l’illusion d’une réalité objective à l’échelle macroscopique? Par ailleurs, les photons, ce qui se fait de plus microscopique et quantique, peuvent-ils simu- ler correctement un observateur dans l’esprit de l’expérience de Wigner? « Pour notre expé- rience, nous avons considéré une définition minimaliste de l’observateur», explique Cyril Branciard, physicien à l’institut Néel de Grenoble qui a participé à cette expérience. « Nous avons considéré que tout système qui interagit avec un autre, qui extrait de l’infor- mation de celui-ci et qui est capable d’enregis- trer cette information dans un système physique servant de mémoire peut être consi- déré comme un observateur.»

L’interprétation de la physique quantique reste donc une question ouverte, mais les cher- cheurs ne manquent pas d’idées pour mettre à l’épreuve les différentes propositions aussi bien par des expériences de pensée que par des expé- riences réelles. Elles aideront à faire le tri dans les hypothèses implicites contenues dans ces interprétations et serviront certainement de garde-fou pour les futures théories qui résou- dront les énigmes de la physique quantique ou participeront à unifier la physique quantique et la relativité générale! n

« Aurélie Jean, l’étoile scientifique qui monte. » Guillaume Grallet, Le Point

« Aussi bien autobiographie qu’essai scientifique et social, ce livre m’a passionné. » François Busnel, La Grande Librairie

« Un récit extrêmement incarné. » Élisabeth Quin, 28 minutes

« La figure montante de la science numérique. » Patrick Cohen, Europe 1

L’ORDINATEUR ULTIME

Les propriétés des systèmes quantiques (intrication, superposition, indéterminisme…) en feraient des composants de base parfaits pour concevoir une nouvelle génération d’ordinateurs qui surpasseraient de très loin nos machines classiques actuelles. La course aux qubits (l’équivalent quantique des bits classiques) est lancée et de nombreuses technologies prétendent au titre de support idéal de l’information quantique. Des annonces retentissantes quant à des records atteints se succèdent et sont vite controversées. Qu’en est-il vraiment ? Et à quoi ressemblera un éventuel internet quantique, un réseau reliant de tels ordinateurs quantiques ?

POUR LA SCIENCE HORS-SÉRIE N° 107 / MAI-JUIN 2020 / 77

L’ESSENTIEL ? La brique élémentaire des futurs ordinateurs quantiques est le bit quantique, ou qubit. ? Plusieurs technologies sont sur les rangs pour obtenir les meilleures performances.

? Cependant, selon le proftl de machine souhaitée (LSQ ou NISQ), on privilégiera certaines propriétés des qubits. ? Et rien ne dit qu’un seul type de qubit remportera la mise ni ne suffira.

L’AUTEUR

TRISTAN MEUNIER est chercheur CNRS dans l’équipe Circuits électroniques quantiques (Alpes), à l’institut Néel, à Grenoble.

Pour cet article, l’auteur remercie Maud Vinet (CEA), Antoine Browaeys (CNRS, IOCF, Pasqal), Sébastien Tanzilli (CNRS) et Mazyar Miharrimi (Inria).

La course aux qubits L’ordinateur quantique ne deviendra une réalité qu’après la mise au point de bits quantiques performants, rapides, robustes et intégrables à grande échelle. Plusieurs candidats sont en lice. Sans compter les outsiders venus du diable Vauvert.

e record actuel est à… 53 et il date d’oc- tobre 2019. Ni température extrême en France métropolitaine ni vitesse (en nœuds) d’une planche à voile, nous parlons ici de qubits. Plus précisément, il s’agit du nombre de qubits qui équipent l’ordinateur quantique avec lequel Google a proclamé avoir effectué un calcul bien

plus rapidement que les meilleurs supercalcu- lateurs classiques. Contestée sur plusieurs points, cette annonce n’en est pas moins révé- latrice d’une course effrénée que disputent acteurs académiques et privés, de la multinatio- nale installée à la jeune start-up.

Mais qu’entend-on par qubit (voir les Repères, page 6) ? Schématiquement, il s’agit de l’équivalent quantique d’un bit classique. Alors que ce dernier peut prendre comme valeur 0 ou 1, un qubit, jouant avec les propriétés étranges du monde quantique, est une super- position de 0 et 1. Un qubit peut alors repré- senter deux états, deux qubits correspondre à quatre… et ainsi de suite, N qubits équivalant à 2N états, soit pour les 53 qubits de l’ordinateur de Google, plus de 9 x 1015 états 0 et 1 ! >

> À cette superposition s’ajoute une autre propriété essentielle des potentiels ordina- teurs quantiques, l’intrication, un phénomène par lequel les états quantiques de deux enti- tés, ou plus, comme des qubits, sont corrélés et donc dépendants les uns des autres (voir Pas d’échappatoire pour l’intrication, par R. Hanson, page 26). Intrication et superposi- tion autorisent un parallélisme massif dans le traitement de l’information, la clé de la puis- sance de l’ordinateur quantique. Il y a toute- fois un problème : la décohérence. Les interactions avec l’environnement font perdre ses propriétés à un système quantique, et ce d’autant plus qu’il contient de qubits. C’est contre elle que la course à l’ordinateur quan- tique est engagée depuis une vingtaine d’an- nées. En résumé, la réalisation d’un ordinateur quantique repose sur le contrôle d’états intri- qués s’étalant sur un nombre important de qubits et sur la préservation de la cohérence de tels états le plus longtemps possible.

Aujourd’hui, le nombre maximal de qubits contrôlés est, nous l’avons vu, de l’ordre de la cinquantaine et le nombre d’opérations quan- tiques réalisées est du même ordre. C’est suf- fisant pour d’ores et déjà explorer un grand espace des états possibles à la limite de ce qu’il est possible de simuler sur les meilleurs super- calculateurs classiques. Les courbes de perfor- mance se croisent et les recherches sur la conception de qubits sont intenses. De nom- breux candidats ont été testés: atomes, ions, molécules, électrons, photons, circuits supra- conducteurs. Parmi eux, lesquels offrent les perspectives les plus intéressantes? DEUX TYPES D’ORDINATEURS

Pour répondre, il convient de distinguer deux types de machines quantiques : celles dotées de processeurs quantiques nécessitant des codes correcteurs d’erreurs et celles pour lesquelles le calcul est possible même avec un faible taux d’erreurs (voir l’entretien avec A. Aspect, page 10). Dans le premier cas, on parle de LSQ, pour large scale quantum computers, pour lesquels on cherche à pallier les erreurs liées à la décohérence, mais les chercheurs ont montré qu’il faudrait pour ce faire 1 000, voire 10000 qubits physiques pour chaque qubit uti- lisable pour les calculs! Un effort important est donc nécessaire pour résoudre le problème de contrôle posé par des processeurs quantiques à grand nombre de qubits.

Dans le second cas, on parle de NISQ, pour noisy intermediate scale quantum computers, c’est-à-dire des ordinateurs quantiques impar- faits de taille intermédiaire. Cette fois, la prio- rité sera une compréhension plus poussée des conditions de fonctionnement des qubits pour diminuer les erreurs lors des opérations

Ces deux approches sont complémenta ires et s’autoalimen tent à mesure du développe- ment des processeurs quantiques. Elles récla- ment toutes les deux un effort pluridisciplin aire combinant les sciences physiques, technolo- giques et informatique s. La diversité des pers- pectives de calcul suppose des prérequis différents au niveau des plateformes expéri- mentales, ce qui pourrait conduire à reconsi- dérer la notion selon laquelle une seule plateforme pourrait être universelle. Pour y voir plus clair, dressons un panorama des dif- férentes plateformes en course, leurs forces et leurs limites, afin de comprendre pour quel type de calcul elles pourraient avoir un rôle à jouer à plus ou moins long terme.

L’élaborat ion d’un ordinateur quantique impose de lire individuelle ment les qubits, de les contrôler ainsi que leur interaction, dans un dispositif potentiellem ent intégrable à plus grande échelle. Parmi les innombrabl es

I N T R I C A T I O N

E T

S U P E R P O S I T I O N

A U T O R I S E N T UN PARALLÉLI SME MASSIF DANS LE TRAITEME NT DE L’INFORM ATION

quantiques. Un circuit supraconducteur abrite en son centre neuf qubits.

Des qubits sous la forme de photons sont créés dans les spirales puis guidés le long de pistes en silicium pour effectuer différentes tâches.

Un ion de strontium (le petit point au centre, la fluorescence apparaît après un temps de pose de 30 secondes) a été piégé dans une enceinte ultravide entre deux électrodes. De tels ions piégés pourraient constituer des qubits.

systèmes issus de la physique ou de la chimie et gouvernés par des propriétés quantiques, ceux ayant atteint ces objectifs avec une préci- sion suffisante sont rares, et c’est à eux que nous nous intéresserons ici. Précisons que cette sélection n’est valable qu’à un instant donné, aujourd’hui, et reste tributaire de nos connaissances, encore en construction, sur l’ordinateur quantique et de notre capacité à contrôler les systèmes quantiques. Le même exercice dans quelques années pourrait conduire à une liste différente.

Les qubits retenus se distinguent notable- ment en termes de performances et de géomé- trie, autant de caractéristiques liées à des paramètres physiques et technologiques, comme la vitesse et la robustesse des opéra- tions quantiques, la taille effective du qubit, la variabilité des paramètres de fonctionnement du qubit… (voir le tableau page 84) et aucun n’est pour le moment incontournable au vu des contraintes de l’ordinateur quantique. LA VOIE DU SUPRACONDUCTEUR

La vitesse d’opération est clairement importante, car elle détermine la rapidité du processeur quantique. Si elle devient le facteur clé, alors le choix le plus judicieux est clair aujourd’hui : miser sur les qubits de type supra- conducteur (voir la figure page ci-contre), c’est- à-dire dépourvu de résistance électrique à basse température. L’étude de ces objets a commencé il y a plus de quarante ans lorsque diverses expériences ont montré le comporte- ment globalement quantique du circuit supra- conducteur le plus simple : la jonction Josephson. Cet élément est constitué de deux électrodes supraconductrices séparées par un mince isolant électrique que peuvent traver- ser, par effet tunnel, des paires d’électrons (dites « de Cooper»). Refroidis à des tempé- ratures d’environ 20 millikelvins, les circuits à jonction Josephson se comportent comme des atomes artificiels à deux états possibles, le prérequis pour être un qubit.

La rapidité d’opération des qubits supra- conducteurs résulte de leur taille. Au contraire d’autres systèmes, ils sont formés d’un nombre important de particules élémentaires, les élec- trons, qui se déplacent sans dissiper d’énergie dans des circuits de plusieurs centaines de microns. La taille des qubits supraconducteurs permet de bien les coupler aux sondes et exci- tations nécessaires pour les contrôler et auto- rise un temps de manipulation bien inférieur à la microseconde. À l’origine, les propriétés macroscopiques semblaient rédhibitoires pour élaborer des systèmes très résistants à la déco- hérence. Cependant, des efforts déployés pour comprendre et améliorer leur isolation vis-à- vis de l’environnement ont rendu les circuits supraconducteurs aussi performants que >

> d’autres systèmes fondés sur des particules élémentaires individuelles, par essence plus isolés de l’environnement.

Les travaux ont initialement été menés dans des laboratoires académiques, puis plus récemment dans des laboratoires de recherche et développement de grands groupes indus- triels ou dans des start-up. C’est d’ailleurs la technologie retenue par Google, prouvant que des manipulations complexes et simultanées sur plusieurs dizaines de qubits supraconduc- teurs sont désormais possibles. De plus, les

Des atomes neutres seraient de bons qubits si l’on pouvait les contrôler individuellement. C’est le cas dans cette tour Eiffel tridimensionnelle constituée de quelques atomes : un premier pas vers la conception d’ordinateurs quantiques à plusieurs centaines de qubits.

Dans ce qubit en silicium, le spin d’un seul électron (le point rose) a été intriqué à de la lumière (l’onde rose) et resté piégé dans une chambre à double-paroi. La lumière pourrait dans un futur ordinateur quantique transporter l’information concernant le spin de l’électron.

premiers protocoles de correction d’erreurs quantiques ont été mis en œuvre dans de tels systèmes à supraconducteurs.

Ce type de qubit est le système le plus avancé sur le marché des machines quan- tiques. Il a en outre l’avantage dans la course vers les grands nombres qu’impose la voie du code correcteur d’erreurs, de compter sur des techniques de fabrication bien éprouvées. Cependant, les défis à relever sont nombreux. Ainsi, à courte échéance, les perspectives en termes de fidélité d’opération à plus grande échelle restent une question ouverte et on ignore encore si ces systèmes macroscopiques ne souffriront pas de limites intrinsèques. Ces dernières seraient notamment liées à leur température d’opération qui, à 20 millikelvins, est la plus froide possible. Des contraintes liées à la dissipation d’énergie générée par les signaux de contrôle deviendront de plus en plus importantes à mesure que le nombre de qubits augmentera. À très grande échelle, l’instabilité de ces qubits supraconducteurs sera le principal obstacle à franchir pour espé- rer les contrôler et les refroidir. LA VOIE DU NISQ

Dans la voie de l’ordinateur quantique imparfait (le NISQ), la fidélité des opéra- tions sur les qubits est un paramètre impor- tant. En effet, moins il y a d’erreurs, plus les systèmes sans correction d’erreurs pourront résoudre des problèmes de calcul avec un nombre moindre de qubits. Le choix se reportera alors sur des qubits fondés sur des particules élémentaires, et plus particulière- ment ceux en environnement ultrapropre comme les ions (voir la figure page précédente, en bas) ou les atomes neutres piégés (voir la figure ci-contre en haut) sous vide dans des réseaux optiques. Le record actuel est à 20 atomes piégés intriqués.

La particule élémentaire est un électron de la structure atomique dont l’orientation du spin (un moment cinétique intrinsèque, de nature quantique) constitue l’état quantique que l’on manipule grâce à des lasers. Les ions et les atomes étant isolés dans le vide, ce type de qubit offre les temps de cohérence les plus longs, de l’ordre de plusieurs dizaines de minutes. Ils restent néanmoins contraints par des temps de manipulation assez longs, de l’ordre de la milliseconde pour la plus lente des opérations. Les efforts d’ingénierie portent aujourd’hui sur l’accélération du processeur quantique. Par rapport aux qubits supracon- ducteurs, les qubits atomiques ont l’avantage de fonctionner à température ambiante. On peut également faire interagir plusieurs qubits à la fois, ce qui ouvre des perspectives en termes d’optimisation des séquences d’opéra- tions quantiques nécessaires pour un calcul.

L’avenir de ces systèmes repose sur des tra- vaux menés au sein de laboratoires acadé- miques et dans des start-up (IONQ, Alpine Quantum Technologies, Honeywell, Pasqal). Il s’agira surtout de développer des techniques de manipulation aussi avancées en termes de contrôle simultané que celles utilisées pour les qubits supraconducteurs. Restera aussi à pas- ser à plus grande échelle, avec un effort en ingé- nierie plus difficile à évaluer que pour les systèmes de matière condensée. LA REVANCHE DU SILICIUM

Après la vitesse et la fidélité des opérations menées sur les qubits, un autre point crucial dans le développement d’ordinateurs quan- tiques réside dans la possibilité des très grandes échelles (LSQ), au-delà du million de qubits. Une piste prometteuse se trouve du côté des qubits de spins dans les circuits semiconduc- teurs quantiques. L’élément de base est un électron individuel piégé électrostatiquement dans une structure semiconductrice, élément de base de l’électronique moderne permettant de sculpter à volonté le potentiel vu par les électrons. Le silicium est le matériau semi- conducteur le plus célèbre, et on le trouve dans la plupart des microprocesseurs des ordina- teurs classiques. De plus, cet élément se com- porte comme un vide magnétique pour le spin ce qui protège efficacement le spin électro- nique des perturbations extérieures.

LE QUB IT SUPR ACO NDU CTE UR EST LE SYST ÈME LE PLUS AVA NCÉ SUR LE MAR CHÉ DES MACHINES QUANTIQU ES

Av ec des tailles micro métriq ues de qubits (voir la figure page ci- contre , en bas), facilit ant leur manip ulatio n, et les capaci tés de la filière de la micro électr oniqu e du siliciu m, cette techno logie a beauc oup d’atou ts sur le papier en vue d’une intégr ation à grand e échell e. D’aut ant plus que toutes les opéra tions élé- ment aires du calcul quant ique sont acces- sibles et que les fidélit és et les vitess es des opérat ions sont au rende z- vous. C’est remar - quabl e, dans la mesu re où les premi ères démo nstrat ions de qubit dans le siliciu m datent de seule ment huit ans.

Tout efois, ces avantag es méritent d’être ren- forcés de sorte que l’on puisse aller au- delà de deux qubits, l’état de l’art de cette technolo gie. >

LE QUBIT IDÉAL

z |1>

Dès le début de la course aux processeurs quantiques, les critères qu’un « bon » qubit doit satisfaire furent rapidement établis. Il doit être constitué d’un doublet d’états quantiques |0> et |1> et être initialisable de façon fidèle. En outre, il doit être muni d’une commande afin de réaliser (en un temps noté T1) n’importe quelle porte à un qubit (analogue quantique de la porte logique NON transformant 0 en 1 et vice versa). Ces portes se comprennent mieux à l’aide d’une représentation géométrique de l’ensemble des états quantiques a|0>+b|1> (a et b sont des nombres complexes) accessibles au qubit : la sphère de Bloch. Dans cette représentation (voir la figure, à droite), un état est une flèche pointant à la surface de la sphère (en magenta), les états |0> et |1> étant aux pôles, tandis qu’une porte se traduit par une rotation de l’état d’un certain angle autour d’un axe (en rose et en violet). Le qubit idéal doit aussi pouvoir être couplé à un autre

qubit de façon à réaliser une porte logique à deux bits (en un temps noté T2). Cette porte doit être « universelle », dans le sens où tout algorithme quantique doit être décomposable en cette porte et en portes à un bit. Le qubit idéal est intégrable en grand nombre dans un processeur. La cohérence quantique des superpositions de ses deux états doit se maintenir durant un temps T2 bien supérieur aux tempsT1 et T2 associés aux deux types de portes. Le qubit idéal est enfin muni d’un dispositif permettant de lire son état « en un coup », de façon fidèle. Qu’est-ce que cela signifie ? Dans la première étape d’une mesure, un qubit se trouvant initialement dans un état a|0>+b|1> finit toujours dans l’état soit |0>, soit |1> (on dit qu’il est « projeté »), avec les probabilités respectives |a|2 et |b|2. Le détecteur extrait alors de l’information du qubit pour déterminer cet état final et indiquer 0 ou 1. Quand il est

a |0> + b |1>

y

x | 0 >

suffisamment sensible pour que l’expérimentateur puisse lire sans équivoque le résultat, la mesure est dite « en un coup ». Dans le cas inverse, le même état initial doit être préparé et mesuré un grand nombre de fois, les mesures étant alors moyennées. Une lecture en un coup n’est jamais parfaitement fidèle, car le détecteur indique parfois 0 quand le qubit est projeté sur |1> et réciproquement. On la caractérise alors par sa fidélité, c’est-à-dire la probabilité de lire un résultat correct. Dans le cas idéal, la fidélité est de 100 %.

Supraconducteur

Spin dans silicium

Ions piégés

Photons

Atomes

Taille

(100 µm)2

(100 nm)2

(1 mm)2

~(100 µm)2

(1 µm)2

Robustesse

~99,3 %

>98 %

99,9 % 50 % (mesure) 98 % (portes)

95 %

Rapidité

250 ns

~5 ns

100 µs

1 ms

1 ms

Variabilité

3 %

0,1 % – 0,5 %

0,0001 %

0,5 %

0,0001 % Température d’opération

50 mK

1 K

300 K

4 K

300 K

Connectivité

4

4

10

2

10

Nombre record de qubits intriqués

53

2

20

18

51 Les performances des qubits se comparent sur la base de quelques caractéristiques essentielles. Du point de vue physique, les paramètres clés sont la taille effective du qubit, la robustesse face aux erreurs de calcul et la rapidité des opérations quantiques. D’autres caractéristiques, d’ordre technologique, sont surtout pertinentes pour le passage à grande échelle : la connectivité afin de réaliser des portes logiques à plusieurs qubits en une seule opération, la variabilité (des fréquences de Larmor), qui évalue l’effort à déployer pour calibrer les qubits et enfin la température d’opération. Pour chacun, le record du nombre de qubits intriqués est indiqué.

> Beaucoup d’acteurs du domaine s’y emploient, que ce soit des laboratoires académiques, des services de recherche et développement d’entre- prises installées (Intel) ou encore des start-up (Silicon Quantum Computing, Equal1). Notons que pour cette technologie, la part des ingé- nieurs, en l’occurrence en microélectronique, va bien au-delà de ce qu’on peut observer pour les autres systèmes en course en raison de la néces- sité de s’appuyer sur des technologies éprouvées de la microélectronique pour améliorer la per- formance des qubits. ET LA LUMIÈRE FUSE

Les types de qubits que nous avons décrits sont fondés sur des particules massives et fonc- tionnent de façon très semblable: ils sont faciles à comparer (voir le tableau ci-dessus). Ils consti- tuent la grande majorité des systèmes candidats au calcul quantique à l’exception notable des photons intriqués, que l’on sait depuis long- temps produire et manipuler avec précision. Dans l’exploration de cette voie, les différences principales résident dans la nature évanescente du photon optique et dans la difficulté à faire interagir deux photons. La seconde propriété fait écho au caractère très isolé du photon ce qui en fait sans doute le système quantique indi- viduel le plus cohérent et immune aux erreurs. Ces particularités rendent inapplicables les pro- tocoles utilisés pour les particules massives où le caractère déterministe de l’interaction entre qubits existants sur des temps longs est primor- dial. Elles ont poussé la communauté à déve- lopper des protocoles spécifiques aux photons

BIOGRAPHIE A. CRIPPA ET AL., Gate- reflectometry dispersive readout and coherent control of a spin qubit in silicon, Nature Communications, vol. 10, article 2776, 2019. W. HUANG ET AL., Fidelity benchmarks for two-qubit gates in silicon, Nature, vol. 569, pp. 532-536, 2019. F. ARUTE ET AL., Quantum supremacy using a programmable superconducting processor, Nature, vol. 574, pp. 505-510, 2019. D. BARREDO ET AL., Synthetic three-dimensional atomic structures assembled atom by atom, Nature, vol. 561, pp. 79-82, 2018. X. QIANG ET AL., Large-scale silicon quantum photonics implementing arbitrary two-qubit processing, Nature Photonics, vol. 12, pp. 534-539, 2018. N. FRIIS ET AL., Observation of entangled states of a fully controlled 20-qubit system, Physical Review, vol. 8(2), article 021012, 2018.

et à notamment augmenter le nombre de pho- tons nécessaires pour définir un qubit. Ils reposent sur la conception de détecteurs à pho- tons et sources d’états intriqués très efficaces. Un important effort de recherche, aussi bien dans des laboratoires académiques que dans des start-up (Quandela, PsiQuantum), est aujourd’hui consacré pour améliorer la perfor- mance de ces briques élémentaires.

Un pas important dans cette direction a été franchi ces dernières années avec des expé- riences quantiques à plusieurs photons dans des circuits photoniques en silicium (voir la figure page 81, en haut). Cependant les pre- mières démonstrations liées aux protocoles viables à plus grande échelle sont encore atten- dues, et elles devront être confrontées quanti- tativement aux exigences du calcul quantique. Arriver à se prémunir des limitations des pho- tons pourrait conduire à l’émergence d’un sys- tème très cohérent avec peu d’erreurs, un pas important vers une machine NISQ efficace.

Beaucoup de plateformes se développent et prétendent à concourir au titre de qubit idéal pour le calcul quantique. Elles sont portées par des acteurs des mondes académique et indus- triel. La course est lancée, mais aucun système ne semble prendre l’avantage, aucune échappée n’apparaît. On peut même imaginer que la diversité des applications du calcul quantique sera si importante qu’elle rendra nécessaire l’utilisation de différentes plateformes avec des propriétés physiques et technologiques dis- tinctes. Et la notion de record de nombre de qubits perdra un peu de son sens… n

ABONNEZ-VOUS À

OFFRE D’ABONNEM ENT

DURÉE LIBRE

31 % de réduction *

BULLETIN D’ABONNEMENT À renvoyer accompagné de votre règlement à :

43 % de réduction *

Pour la Science – Service abonnements – 19 rue de l’Industrie – BP 90053 – 67402 Illkirch Cedex – email : pourlascience@abopress.fr PAG20STDDOS

OUI, je m’abonne à Pour la Science en prélèvement automatique

Réduction par rapport au prix de vente en kiosque et l’accès aux archives numériques. Durée d’abonnement : 1 an. Délai de livraison : dans le mois suivant l’enregistrement de votre règlement. O¦re valable jusqu’au 31/03/2021 en France métropolitaine uniquement. Pour un abonnement à l’étranger, merci de consulter notre site https://boutique.pourlascience.fr. Photos non contractuelles. Les informations que nous collectons dans ce bulletin d’abonnement nous aident à personnaliser et à améliorer les services que nous vous proposons. Nous les utiliserons pour gérer votre accès à l’intégralité de nos services, traiter vos commandes et paiements, et vous faire part notamment par newsletters de nos o¦res commerciales moyennant le respect de vos choix en la matière. Le responsable du traitement est la société Pour la Science. Vos données personnelles ne seront pas conservées au-delà de la durée nécessaire à la finalité de leur traitement. Pour la Science ne commercialise ni ne loue

En signant ce mandat SEPA, j’autorise Pour la Science à transmettre des instructions à ma banque pour le prélèvement de mon abonnement dès réception de mon bulletin. Je bénéficie d’un droit de rétractation dans la limite de 8 semaines suivant le premier prélèvement. Plus d’informations auprès de mon établissement bancaire. TYPE DE PAIEMENT : PAIEMENT RÉCURRENT Titulaire du compte Nom : ......................................... Prénom : ............................... Adresse : ............................................................................. ............................................................................... .......... Code postal Ville : ............................................... Désignation du compte à débiter BIC (Identification internationale de la banque) IBAN (Numéro d’identification international du compte bancaire) Établissement teneur du compte Nom : ............................................................................... ... Adresse : ............................................................................. Code postal Ville : ................................................

vos données à caractère personnel à des tiers. Les données collectées sont exclusivement destinées à Pour la Science. Nous vous invitons à prendre connaissance de notre charte de protection des données personnelles à l’adresse suivante : https://rebrand²ly/charte-donnees-pls. Conformément à la réglementation applicable (et notamment au Règlement 2016/679/UE dit « RGPD ») vous disposez des droits d’accès, de rectification, d’opposition, d’e¦acement, à la portabilité et à la limitation de vos données personnelles. Pour exercer ces droits (ou nous poser toute question concernant le traitement de vos données personnelles), vous pouvez nous contacter par courriel à l’adresse protection-donnees@pourlascience.fr.

Groupe Pour la Science - Siège social : 170 bis, boulevard du Montparnasse, CS20012, 75680 Paris cedex 14 – Sarl au capital de 32 000€ – RCS Paris B 311 797 393 – Siret : 311 797 393 000 23 – APE 58.14 Z

Date et signature

MERCI DE JOINDRE IMPÉRATIVEMENT UN RIB

Organisme Créancier : Pour la Science 170 bis, bd. du Montparnasse – 75014 Paris N° ICS FR92ZZZ426900 N° de référence unique de mandat (RUM)

L’ESSENTIEL ? En septembre 2019, des chercheurs de Google ont annoncé, brièvement, avoir atteint la suprématie quantique. ? Ce point de bascule correspond à la mise au point d’un ordinateur quantique pouvant effectuer n’importe quel calcul impossible à réaliser en pratique avec un ordinateur classique.

? Nous en sommes sans doute proches, mais plusieurs défts, notamment liés aux taux d’erreurs des ordinateurs quantiques, restent à relever. ? Et reste à savoir ce que l’on fera vraiment avec ces ordinateurs d’un nouveau genre…

L’AUTEUR

KEVIN HARTNETT est journaliste à Quanta Magazine.

Suprématie quantique: le guide pratique Des chercheurs de Google auraient atteint la «suprématie quantique», c’est-à-dire mis au point un ordinateur quantique reléguant au rang de vieilleries les ordinateurs classiques. Mais de quoi parle-t-on vraiment?

Cet article a d’abord été publié en anglais par Quanta Magazine, une publication en ligne indépendante soutenue par la Simons Foundation aftn de favoriser la diffusion des sciences: http://bit²ly/QM-SuprQ

es ordinateurs quantiques ne remplaceront jamais complètement les ordinateurs «  clas- siques», comme celui sur lequel vous lisez peut- être parfois votre magazine préféré. Vous ne pourrez probablement pas naviguer sur internet, ni écouter de la musique ou regarder des vidéos. Ils apporteront beaucoup plus, du moins l’espère-t-on! En l’occurrence, ils offriront la

capacité d’effectuer certains calculs de façon fondamentalement différente pour la résolu- tion de problèmes, qui demanderait des mil- liards d’années à un ordinateur classique. Ils permettront de simuler des systèmes com- plexes comme des molécules biologiques, ou de factoriser des nombres incroyablement grands, rendant ainsi obsolètes les techniques de cryptage actuelles.

Le seuil à partir duquel les ordinateurs quantiques passeront du statut de projets de recherche prometteurs à celui de technologie opérationnelle capable de réaliser des tâches qu’aucun ordinateur classique ne pourra jamais accomplir est appelé la « suprématie quan- tique ». Dans un article brièvement apparu sur le site de la Nasa fin septembre 2019, des >

Les qubits de Q System One, l’ordinateur quantique d’IBM, doivent être placés dans une enceinte réfrigérée quasiment au zéro absolu afin d'éviter toute perturbation.

> chercheurs de Google affirmaient l’avoir atteint. Cet article a depuis été retiré, semant le doute sur la véracité de cette performance. Mais si ce n’est pas le cas, ce n’est sans doute qu’une ques- tion de temps. En prévision de ce jour, il est nécessaire de préparer et de bien comprendre ce que signifie la suprématie quantique et si elle a réellement été atteinte. Suivez le guide. Qu’est-ce que la suprématie quantique et pourquoi est-ce important ?

Pour atteindre la suprématie quantique, un ordinateur quantique devrait pouvoir effectuer n’importe quel calcul impossible à réaliser en pratique avec un ordinateur classique. En un sens, cette distinction est artificielle. Le test qui sera utilisé pour vérifier la suprématie quantique est un problème ad hoc – il s’agit davantage d’un tour de passe-passe que d’une avancée vraiment utile (nous y reviendrons). De fait, les efforts pour construire un ordina- teur quantique ne visent pas spécifiquement la suprématie quantique. « Nous n’utilisons pas du tout ce terme; cela ne nous intéresse pas», déclare ainsi Robert Sutor, responsable de la stratégie en informatique quantique chez IBM. Mais d’un autre point de vue, la supréma- tie quantique serait un moment décisif dans l’histoire de l’informatique. Elle pourrait en fait conduire à l’avènement d’ordinateurs quantiques qui seraient utiles pour certains problèmes pratiques.

Cet optimisme se justifie au regard de l’his- toire. Dans les années 1990, les premiers algo- rithmes quantiques ont résolu des problèmes artificiels dont personne ne pensait qu’ils étaient vraiment intéressants. Mais les informa- ticiens qui les ont conçus ont appris des choses qu’ils ont pu appliquer au développement d’al- gorithmes ultérieurs ayant de grandes consé- quences pratiques, à l’image de l’algorithme de Shor, qui sert à factoriser des grands nombres.

« Je ne pense pas que ces algorithmes auraient vu le jour si la communauté ne s’était pas d’abord demandé à quoi peuvent servir en principe les ordinateurs quantiques, sans s’in- quiéter immédiatement de leur valeur d’usage», affirme Bill Fefferman, chercheur en informa- tion quantique à l’université de Chicago.

La communauté de l’informatique quantique espère que ce processus va se répéter. En construisant un ordinateur quantique qui bat les ordinateurs classiques – même pour résoudre un problème totalement inutile en pratique – les chercheurs apprendront certainement des choses qui leur permettront de construire un jour un ordinateur quantique utile concrètement.

« Avant que nous ayons atteint la supréma- tie quantique, il n’y a aucune chance qu’un ordinateur quantique puisse faire quoi que ce soit d’intéressant. C’est une étape nécessaire », estime Fernando Brandão, physicien théoricien

à l’inst itut de techn ologi e de Calif ornie et cher- cheu r chez Goo gle.

L a supr émat ie quan tique serait en outre un séis me en infor mati que théor ique. Pend ant des décen nies, ce doma ine a tenu pour vraie l’hyp o- thès e de «  Chur ch- Turi ng éten due », selo n laque lle un ordin ateur classi que peut effect uer effic acem ent tout calcu l que tout autre type d’ord inate ur peut effect uer effica ceme nt. La supr émat ie quan tique serait la prem ière viola - tion expé rime ntale de ce princ ipe, et ferai t entre r l’info rmat ique dans un tout nouv eau mon de. «  La supr émat ie quan tique serait une percé e fond amen tale dans la façon dont nous envis ageo ns le calcu l », juge Ada m Boul and, cherc heur en infor matio n quant ique à l’univ er- sité de Calif ornie à Berk eley.

Comme nt démontr er la supréma tie quantiq ue ?

E n résol vant sur un ordin ateur quant ique un probl ème qu’u n ordin ateur classi que ne peut résou dre de façon effica ce. Le probl ème impo rte peu, mais on s’atte nd à ce que la pre mièr e démo nstrat ion de la supré matie quant ique porte sur un probl ème parti culie r conn u sous le nom «d’échantillonnage aléatoire de circuits».

U n exem ple simp le est un prog ram me qui simu le le lance r d’un dé à 6 faces . Un tel algo- rith me fonct ionn e corr ecte ment lorsq u’il écha ntillo nne bien les résul tats possi bles, pro- duis ant chac un des nom bres de 1 à 6 une fois sur six en moy enne quan d on exéc ute le pro- gram me de faço n répét ée.

À la place du résul tat d’un jet de dé, le pro- blèm e d’éch antill onna ge aléat oire de circui ts consi ste à écha ntillo nner les sortie s possi bles d’un circu it quan tique aléat oire. Un circu it peut être vu com me une série d’act ions qui peuv ent être effect uées sur un ense mble de bits quan tique s, ou qubit s. Cons idéro ns un circui t qui agit sur 50 qubit s. Au fur et à mes ure que les qubi ts trave rsent le circu it, ils peuv ent pren dre plusi eurs états en mêm e temp s (ils sont supe rposé s) et se corré ler entre eux, c’est- à- dire s’intr iquer ). Par cons éque nt, à la fin du circui t, les 50 qubit s sont dans une supe rposi - tion de 250 états possi bles. Si on mes ure les qubit s, cet océa n de 250 possi bilité s se rédu it à une seule chaîn e de 50 bits. C’est com me lance r un dé, sauf qu’a u lieu de 6 possi bilité s il y en a 250, et que toute s les possi bilité s n’ont pas la mêm e prob abilit é.

L es ordin ateur s quan tique s, qui peuv ent explo iter des effets pure ment quan tique s tels que les supe rposi tions d’éta t, devr aient être capa bles de livrer effica ceme nt à partir de ce cir- cuit aléat oire une série de vale urs de sorti e qui repro duit la bonn e distri butio n. Pour les ordin a- teurs classi ques, en revan che, on ne conn aît pas d’alg orith me rapid e pour prod uire cet écha ntil- lonn age – si bien que plus le nom bre de

Suprématie quantique : le guide pratique

possibilités augmente, plus les ordinateurs clas- siques sont rapidement dépassés par la tâche. Qu’est-ce qui empêche d’atteindre la suprématie quantique pour le moment ?

Tant que les circuits quantiques restent petits, les ordinateurs classiques peuvent suivre le rythme. Ainsi, pour démontrer la suprématie quantique par le biais du problème de l’échantillonnage aléatoire des circuits, il faudrait réussir à construire des circuits quan- tiques plus grands qu’une certaine taille mini- male, ce qui n’a pas été le cas jusqu’ici.

La taille du circuit est déterminée par le nombre de qubits de départ combiné au nombre de manipulations sur ces qubits. Dans un ordi- nateur quantique, les manipulations des qubits sont effectuées à l’aide de « portes logiques », tout comme pour les bits dans un ordinateur classique. Divers types de portes transforment

les qubits de différentes façons – certaines font varier la valeur d’un seul qubit, tandis que d’autres combinent deux qubits de telle ou telle façon. Si les qubits passent par 10 portes, on dit que le circuit a une « profondeur» de 10.

Pour atteindre la suprématie quantique, les informaticiens estiment qu’un ordinateur quan- tique devrait résoudre le problème de l’échan- tillonnage aléatoire d’un circuit de 70 à 100 qubits avec une profondeur d’environ 10. Si le circuit est beaucoup plus petit, un ordina- teur classique pourrait probablement réussir à le simuler – et les techniques de simulation classiques s’améliorent sans cesse.

Mais le problème auquel les chercheurs sont confrontés est que plus le nombre de qubits et de portes logiques augmente, plus le taux d’er- reur augmente. Et si le taux d’erreur est trop élevé, les ordinateurs quantiques perdent leur avantage sur les ordinateurs classiques.

Il existe de nombreuses sources d’erreur dans un circuit quantique. La plus cruciale est l’erreur qui s’accumule dans un calcul à chaque fois que le circuit effectue une opération logique. À l’heure actuelle, les meilleures portes quantiques à 2 qubits ont un taux d’erreur d’en- viron 0,5 %, ce qui signifie qu’il y a environ 1 erreur pour 200 opérations. C’est sans com- mune mesure avec le taux infime d’erreurs dans un circuit classique, qui est d’environ une erreur toutes les 1017 opérations. Pour démon- trer la suprématie quantique, les chercheurs vont devoir ramener le taux d’erreur des portes à 2 qubits au moins en dessous de 0,1 %.

Comment serons-nous certains que la suprématie quantique a été démontrée ? Certains accomplissements sont sans équi- voque. La suprématie quantique n’en fait pas partie. « Ce n’est pas comme le lancement d’une fusée, où il suffit de regarder en l’air pour savoir immédiatement s’il a réussi», explique Scott Aaronson, spécialiste de l’informatique quantique à l’université du Texas à Austin.

Pour vérifier la suprématie quantique, on doit démontrer deux choses: d’une part, qu’un ordinateur quantique a effectué un calcul rapi- dement, et d’autre part, qu’un ordinateur clas- sique n’aurait pas pu effectuer efficacement ce même calcul.

C’est la seconde partie qui est la plus déli- cate. Les ordinateurs classiques se révèlent sou- vent meilleurs pour résoudre certains types de problèmes que ce à quoi s’attendaient les infor- maticiens. Tant qu’on n’a pas prouvé qu’un ordi- nateur classique ne peut pas réaliser un calcul efficacement, il existe toujours une possibilité qu’un meilleur algorithme classique, plus effi- cace, existe. Il ne sera peut-être pas nécessaire de prouver qu’un tel algorithme n’existe pas pour que la plupart des gens soient convaincus par une revendication de suprématie quantique, >

POUR LA SCIENCE HORS-SÉRIE N° 107 / MAI-JUIN 2020 / 89

> mais la démontrer solidement pourrait deman- der encore un certain temps. Sommes-nous près d’atteindre la suprématie quantique ?

Selon de nombreux témoignages, Google frappe à la porte de la suprématie quantique et pourrait la démontrer bientôt. Une annonce avait déjà été faite en ce sens en 2017, avant d’être rétractée, et la nouvelle « annonce » fin septembre 2019 a relancé les spéculations. Mais un certain nombre d’autres équipes ont le potentiel pour atteindre bientôt la suprématie quantique,

LES ORDINATEURS QUANTIQUES SERONT-ILS TOLÉRANTS AUX PANNES AVANT D’ÊTRE VRAIMENT UTILES ?

notamment au sein des entreprises IBM (voir Une suprématie contestée, par K. Hartnett éga- lement, page 92), IonQ et Rigetti, ou à l’uni- versité Harvard.

Ces équipes suivent plusieurs approches distinctes pour construire un ordinateur quan- tique. Google, IBM et Rigetti explorent la piste des circuits supraconducteurs. IonQ utilise des ions piégés par des lasers. Le projet de Harvard, dirigé par Mikhail Lukin, utilise des atomes de rubidium. La démarche de Microsoft, qui implique des « qubits topologiques », paraît plus spéculative. Chaque approche a ses avan- tages et ses inconvénients.

Les circuits quantiques supraconducteurs ont l’avantage d’être constitués d’un matériau solide. Ils peuvent être construits avec les techniques de fabrication existantes, et leurs portes effectuent des opérations très rapides. De plus, les qubits ne bougent pas, ce qui peut être un problème avec d’autres technologies. Mais ces circuits doivent être refroidis à des températures extrêmement basses et chaque qubit d’une puce supraconductrice doit être calibré individuellement, ce qui rend difficile

du circuit, et les pièges offrent un temps de stabilité plus long pour effectuer le calcul avant que les états des qubits ne soient sub- mergés par le bruit ambiant (on parle de décohérence). Mais les portes utilisées pour manipuler les ions sont très lentes – des mil- liers de fois moins rapides que les portes supraconductrices – et les ions individuels peuvent parfois s’échapper des pièges et se déplacer de façon incontrôlée.

À l’heure actuelle, les circuits quantiques supraconducteurs semblent progresser le plus rapidement. Mais de sérieux obstacles d’ingénierie se dressent devant les diffé- rentes approches. Une nouvelle avancée technologique majeure sera nécessaire avant qu’il soit possible de construire des ordina- teurs quantiques dignes de ce nom. « L’informatique quantique aurait besoin d’une invention analogue au transistor – une technologie révolutionnaire qui fonctionne presque sans faille et qui soit facile à déployer à grande échelle, précise Adam Bouland. Mais bien que les progrès expérimentaux récents aient été impressionnants, mon sen- timent est que nous n’avons pas encore trouvé cette clé technologique. » Si la suprématie quantique était démontrée, que se passerait-il ensuite ?

Si un ordinateur quantique atteint la supré- matie pour un problème artificiel tel que l’échantillonnage aléatoire de circuits, la ques- tion suivante est évidente: quand pourra-t-il faire quelque chose d’utile? Le jalon de l’utilité est parfois nommé « avantage quantique». « Pour une utilisation concrète – comme des services financiers, de l’intelligence artificielle ou de la chimie –, quand et comment pourra-t-on voir un ordi- nateur quantique faire bien mieux que n’im- porte quel concurrent classique connu ? », s’interroge Robert Sutor, de chez IBM, dont des clients comme JP Morgan et Mercedes- Benz ont déjà commencé à explorer les appli- cations des puces quantiques IBM.

Un deuxième jalon serait la création d’or- dinateurs quantiques tolérants aux erreurs. Ces ordinateurs seraient capables de corriger les erreurs dans un calcul en temps réel, ce qui permettrait en principe de mener des calculs quantiques sans erreur. Mais la principale pro- position dans ce sens, connue sous le nom de « code de surface», exige un surcoût massif de milliers de qubits correcteurs d’erreur pour chaque qubit logique utilisé pour un calcul. La

BIBLIOGRAPHIE J. MARTINIS ET S. BOIXO, Quantum Supremacy Using a Programmable Superconducting Processor, Google AI Blog, 2019. http://bit²ly/Goo-Supr

l’adaptation de cette technologie aux milliers de qubits ou plus qui seront nécessaires à un ordinateur quantique utile en pratique.

Les ions piégés offrent un bilan contrasté entre avantages et inconvénients. Ils sont tous identiques, ce qui facilite la fabrication

tolérance aux erreurs en informatique quan- tique est donc bien au-delà des capacités actuelles de la technologie. La question de savoir si les ordinateurs quantiques devront être tolérants aux pannes avant de pouvoir être vraiment utiles est ouverte. n

L’ESSENTIEL ? L'ordinateur quantique Sycomore, de Google, aurait calculé en 200 secondes ce qu'il aurait fallu 10000 ans à un calculateur classique. ? Cette annonce, signiftant que la « suprématie quantique» est atteinte, ne fait pas consensus, notamment chez IBM, détenteur du plus rapide supercalculateur classique.

? Le débat porte essentiellement sur ce qu'il faut entendre par cette expression, et sur la nature des problèmes résolus. ? Il n'empêche, ce n'est de toute façon qu'une question de temps pour que l'ordinateur quantique dame le pion aux machines classiques.

L’AUTEUR

KEVIN HARTNETT est journaliste à Quanta Magazine.

Une suprématie contestée Google et IBM, les deux principaux rivaux dans le domaine des calculateurs quantiques, s’opposent à coup d’annonces spectaculaires et contradictoires. Comment démêler le vrai du faux ?

Cet article a d’abord été publié en anglais par Quanta Magazine, une publication en ligne indépendante soutenue par la Simons Foundation aftn de favoriser la diffusion des sciences: http://bit²ly/QM-IBMGOO

ar un matin du mois d’octobre 2019, des cher- cheurs de Google sont officiellement rentrés dans l’histoire de l’informatique. Ou pas…

Le géant de la technologie avait annoncé avoir atteint une étape majeure et depuis long- temps anticipée, nommée « suprématie

quantique». Il s’agit du tournant décisif à par- tir duquel un ordinateur quantique devient capable d’exécuter un calcul qu’aucun ordina- teur ordinaire ne peut effectuer dans un temps raisonnable. NON DE CODE SYCAMORE

Dans une étude publiée dans Nature, Google décrit une telle prouesse, accomplie par leur machine quantique dernier cri, au nom de Sycamore. Les ordinateurs quantiques ne sont pas encore développés au point d’être utilisables à des fins pratiques, mais ces résul- tats montrent qu’ils ont un avantage inhérent par rapport aux ordinateurs normaux pour certaines tâches.

Pourtant, IBM, le rival principal de Google dans ce domaine conteste l'annonce et affirme

que le seuil de la suprématie quantique n’aurait pas encore été franchi. Dans un article posté en ligne, la société d'informatique avance des preuves montrant que le supercalculateur le plus puissant du monde peut quasiment suivre le rythme de la nouvelle machine quantique de Google. Par conséquent, IBM a fait valoir que la déclaration de Google devrait être reçue « avec une grande dose de scepticisme».

Pourquoi tant de confusion? Des accom- plissements majeurs, comme celui-ci, ne sont- ils pas censés prendre la forme de succès retentissants et sans ambiguïté? Cet épisode rappelle que les révolutions scientifiques ne se font pas du jour au lendemain, et que la supré- matie quantique, en particulier, implique plus de nuances que ne le laissent paraître les man- chettes tonitruantes des médias.

De quoi parle-t-on? Les calculateurs quan- tiques sont en développement depuis des décen- nies. Les ordinateurs ordinaires, ou classiques, exécutent des calculs en utilisant des bits, cha- cun prenant une valeur définie, (0 ou 1). Les calculateurs quantiques quant à eux encodent l’information à l’aide de bits quantiques, ou qubits, qui se comportent selon les règles étranges de la mécanique quantique. Ces ordi- nateurs visent à exploiter ces caractéristiques particulières pour effectuer rapidement des calculs à un niveau dépassant de loin les capaci- tés de n’importe quelle machine ordinaire. Mais, pendant des années, les ordinateurs quantiques parvenaient à peine à égaler la puissance de calcul d’une simple calculatrice de poche.

En 2012, John Preskill, chercheur en phy- sique théorique à l’institut de technologie de >

Sycamore, le calculateur quantique de Google, a-t- il atteint la suprématie quantique ?

> Californie, a inventé l’expression « suprématie quantique» pour décrire le moment à partir duquel un ordinateur quantique surpasse même le meilleur des supercalculateurs. Le terme a marqué les esprits, mais les experts en sont venus à interpréter différemment sa significa- tion. Ces divergences expliquant la situation qui nous intéresse ici: Google prétend avoir atteint ce seuil, et IBM lui dénie cette victoire.

Avant d’expliquer ce que la suprématie quantique signifie, clarifions ce qu'elle ne signi- fie pas: le moment à partir duquel un ordina- teur quantique est capable d’exécuter un calcul impossible pour un ordinateur classique. En effet, on sait depuis Alan Turing qu'un ordina- teur classique peut effectuer n’importe quel calcul, ce n'est qu'une question de temps. « Si on leur en donne assez, les ordinateurs, qu’ils soient classiques ou quantiques, peuvent résoudre les mêmes problèmes », explique Thomas Wong, de l’université Creighton, à Omaha, dans le Nebraska, aux États-Unis.

La plupart des experts interprètent la suprématie quantique comme le seuil à partir duquel un ordinateur quantique exécute un calcul qui, à toutes fins pratiques, ne peut être

égalé par un ordinateur classique. L’essentiel du désaccord entre Google et IBM porte sur ce qu'il faut entendre par « pratique». 10 000 ANS CONTRE 60 HEURES

Dans son étude, Google prétend qu’il a fallu 200 secondes à son processeur Sycamore pour effectuer un calcul pour lequel le meilleur supercalculateur actuel du monde – le Summit d’IBM – aurait besoin de 10000 ans, ce qui n’est pas très « pratique ». Cependant, IBM prétend que Summit, qui occupe un espace correspon- dant à deux terrains de basketball au Laboratoire national d’Oak Ridge, dans le Tennessee, peut exécuter ce calcul en deux jours et demi.

Google maintient son estimation de 10 000 ans, bien que plusieurs experts en infor- matique soutiennent qu’IBM a probablement raison sur ce point. « La déclaration d’IBM me paraît plus plausible », nous a écrit Scott Aaronson, de l’université du Texas à Austin.

En supposant qu’IBM ait raison, peut-on considérer deux jours et demi comme un délai pratique? Peut-être pour quelques tâches, mais certainement pas pour d’autres. Pour cette rai- son, les scientifiques ont généralement une

idée plus précise en tête lorsqu’ils parlent de suprématie quantique. Ils font la distinction entre les programmes exécutés en un temps polynomial « rapide» et en un temps exponen- tiel « lent ». Les programmes rapides le restent, même lorsqu’on leur soumet un très grand nombre. Les programmes lents ralentissent exponentiellement à mesure que la taille des problèmes posés augmente.

Dans son étude, Google démontre que son ordinateur quantique de 53 qubits effectue un calcul spécialisé (appelé « échantillonnage de circuit aléatoire») en temps polynomial rapide. Or, pour l’heure, un ordinateur classique ne peut effectuer pareille tâche qu’en un temps exponen- tiel lent. Pour William Fefferman, de l’université de Chicago, ce constat est bien plus important que n’importe quel délai impliqué, qu’il s’agisse de deux jours et demi ou de 10 000 ans. « L’estimation du temps n’est pas très impor- tante, précise-t-il. Je pense qu’IBM ne devrait pas invalider les déclarations principales de Google, en dehors de l’estimation de 10000 ans.»

Ce qui compte, c’est que la machine de Google résout un problème de calcul d’une façon fondamentalement différente de celle dont un

ordinateur classique est capable. Cette différence signifie que, à chaque fois que son ordinateur quantique croît d’un simple qubit, un ordinateur classique aura besoin de voir sa taille doubler pour suivre le rythme. Lorsqu’un ordinateur quantique aura atteint les 70 qubits – probablement d’ici aux deux prochaines années – un supercalculateur classique aura besoin d’un espace équivalent à celui d’une ville pour l’égaler. ÉCHEC ET MAT

Scott Aaronson – empruntant l’analogie d’un ami – explique que la relation entre les ordina- teurs quantiques et classiques, à la suite de l’an- nonce de Google, ressemble beaucoup à celle, dans les années 1990, entre le champion d’échecs Garry Kasparov et le supercalculateur Deep Blue… d’IBM. Le champion arrivait à suivre les premières versions qui allaient s'améliorant, mais il apparaissait clairement qu’il allait être inéluctablement dépassé par son adversaire algo- rithmique. IBM, désormais à la place de Garry Kasparov, « peut faire son baroud d’honneur durant l’ère de transition qui durera peut-être un an ou deux, explique Scott Aaronson. Mais, fon- damentalement, il est mat.» n

BIBLIOGRAPHIE F. ARUTE ET AL., Quantum supremacy using a programmable superconducting processor, Nature, vol. 574, pp. 505-510, 2019. E. PEDNAULT ET AL., Leveraging Secondary Storage to Simulate Deep 54- qubit Sycamore Circuits, 2019. https://arxiv.ORG/ABS/1910.09534

L’ESSENTIEL ? Les ordinateurs quantiques communiqueront via un internet tout aussi quantique qui reste à inventer. ? Les premières pierres sont d’ores et déjà posées et l’on imagine de nombreuses applications que l’internet classique n’autorise pas.

? Ces réseaux quantiques reposeront également la question de la sécurité des transmissions. ? Garantir la conftdentialité des communications quantiques impose de réfléchir à de nouveaux protocoles et à de nouvelles hypothèses sur lesquelles les fonder.

L’AUTRICE

NATALIE WOLCHOVER est journaliste à Quanta Magazine.

Inventer l'internet du futur L’internet que nous connaissons depuis quarante ans est fondé sur des machines « classiques ». À quoi ressemblera celui qui reliera les ordinateurs quantiques ? Stephanie Wehner apporte quelques éléments de réponse.

Cet article a d’abord été publié en anglais par Quanta Magazine, une publication en ligne indépendante soutenue par la Simons Foundation aftn de favoriser la diffusion des sciences: http://bit²ly/QM-Wehner

e soir-là, des informaticiens de l’université de Californie, à Los Angeles, étaient au téléphone avec leurs homologues de l’Institut de recherche Stanford à Menlo Park, situé à quelque 560 kilo- mètres de là. La conversation était surréaliste se rappelle Leonard Kleinrock, chercheur en infor- matique à l’université de Californie. «Avez-vous bien reçu le L?» «Oui», a répondu l’autre équipe. «Vous avez reçu le O?» «Oui.» De même pour le G… et puis c’est le crash! Le serveur de l’Institut avait planté.

C’était le 29 octobre 1969. Les trois pre- mières lettres du mot « LOGIN », tel a été le premier message transmis par l’Arpanet, le pré- curseur d’une révolution, ce que nous appelons aujourd’hui internet. TROP DE CRÉATIVITÉ NUIT

La capacité des réseaux à transmettre des données, ainsi que leur tendance à planter, sinon à se comporter de façon imprévue, a toujours fasciné Stephanie Wehner. «Dans un ordinateur, tout se passe bien et reste ordonné», explique cette physicienne et informaticienne à l’univer- sité de technologie de Delft, aux Pays-Bas. « Dans un réseau, en revanche, de nombreux imprévus surviennent parfois. » Et c’est vrai pour deux raisons. D’abord, quand les pro- grammes sur les ordinateurs connectés inter- fèrent, ce qui engendre des effets surprenants. Et ensuite, lorsque la créativité des utilisateurs de réseaux déborde. Au départ, «  les gens pen- saient que nous utiliserions internet pour

envoyer des fichiers un peu partout», remarque la physicienne.

Stephanie Wehner s’est connectée pour la première fois en ligne en 1992, quelques années avant que cela ne devienne largement acces- sible. À l’époque adolescente en Allemagne, elle s’y connaissait déjà en programmation et est vite devenue une pirate informatique sur l’in- ternet naissant. À 20 ans, elle a obtenu un poste de « corsaire », c’est-à-dire de pirate pour le bien: sa tâche consistait à détecter les vulnéra- bilités du réseau pour un fournisseur d’accès à internet. Puis elle s’est lassée et a cherché à comprendre plus en profondeur les réseaux et les systèmes de transmission d’information.

Aujourd’hui, Stephanie Wehner fait partie des meneurs du mouvement visant à créer une toute nouvelle forme d’internet. Elle travaille à la conception d’un « internet quantique», un réseau qui transmettrait – au lieu des bits clas- siques ayant soit une valeur de 0, soit de 1 – des bits quantiques dans lesquels les deux

possibilités, 0 et 1, coexistent. Ces « qubits» pourraient être faits de photons qui sont une combinaison de deux différentes polarisations. La capacité d’envoyer des qubits d’un endroit à un autre via des câbles de fibres optiques ne bou- leversera peut-être pas la société aussi profon- dément que ne l’a fait l’internet classique, mais elle pourrait révolutionner de nombreux aspects de la science et de la culture, de la sécurité à l’informatique, en passant par l’astronomie. UN ARPANET QUANTIQUE

Stephanie Wehner coordonne la Quantum Internet Alliance, une initiative de l’Union euro- péenne pour élaborer un réseau de transmis- sion d’information quantique à travers le continent. Dans un article paru dans la revue Science en octobre 2018, elle et deux collègues ont dévoilé leur plan pour la création d’un internet quantique en six étapes, chacune d’elle devant se traduire par de nouveaux algo- rithmes et applications. >

Stephanie Wehner, à l’université de technologie de Delft, aux Pays-Bas, où elle pose les premières pierres d’un futur internet quantique.

> La première étape est en cours, elle consiste en la construction d’un réseau quan- tique de démonstration qui connectera quatre villes aux Pays-Bas, une sorte d’analogue quantique de l’Arpanet. Tracy Northup, de l’université d’Innsbruck et membre de la Quantum Internet Alliance loue « l’ampleur de la vision de Stephanie et son engagement pour construire le genre de structure nécessaire à la réalisation d’un tel projet. »

Après le piratage, Stephanie Wehner est allée à l’université pour étudier l’informatique et la physique. À Leyde, elle a entendu le théo- ricien de l’information quantique John Preskill donner une conférence, durant laquelle il décrivait les avantages des bits quantiques pour communiquer. Quelques années plus tard, après avoir son doctorat, elle a

abandonné les bits classiques et rejoint le groupe de John Preskill à l’institut de techno- logie de Californie (Caltech), aux États-Unis, pour un postdoctorat .

Là, en plus d’avoir démontré plusieurs théorèmes notables sur l’information quan- tique, la cryptographi e quantique et la nature de la mécanique quantique elle-même, Stephanie Wehner s’est naturellemen t impo- sée comme une «  meneuse naturelle», raconte John Preskill ; elle « était souvent le lien qui unissait les gens». En 2014, après avoir occupé un poste de professeuse à Singapour, elle a déménagé à Delft, où elle a commencé à col- laborer avec des expérimentat eurs pour poser les fondations de l’internet quantique.

Afin d’en savoir plus, nous avons rencontré Stephanie Wehner en août 2019.

« Nous travaillons à un réseau quantique à travers toute l’Europe »

L’internet quantique est un réseau de transmission de qubits entre deux lieux distants. Pourquoi en a-t-on besoin ? Stephanie Wehner : L’idée n’est pas de rem- placer l’internet que nous utilisons tous aujourd’hui, mais plutôt d’y ajouter des fonc- tionnalités nouvelles et spéciales. Les réseaux quantiques ont toutes sortes d’applications encore à imaginer, mais nous en connaissons déjà un certain nombre. Bien sûr, la plus célèbre est la communication sécurisée : le fait que l’on puisse utiliser la communication quantique pour distribuer des clés quantiques de cryptographie, garantissant la sécurité, même si l’attaquant est équipé d’un ordina- teur quantique. Or une telle machine pourrait vaincre de nombreux protocoles de sécurité existant aujourd’hui. Qu’est-ce qui rend ces clés quantiques si sûres ? Stephanie Wehner : Une bonne manière de comprendre ce que l’internet quantique peut faire est de penser à « l’intrication quantique»

(voir Pas d’échappatoire pour l’intrication, par R. Hanson, page 26), une propriété qui unit deux bits quantiques. La première propriété de l’intrication est sa « coordination maxi- male » : si j’avais un bit quantique ici, à Delft, et un autre à New York, j’utiliserais l’internet quantique pour les intriquer. Dès lors, une mesure de mon qubit ici et celle du qubit de New York donneraient toujours le même résultat, alors même qu’il n’était pas prédé- terminé. Donc, intuitivement, grâce à cette première propriété de l’intrication quantique, l’internet quantique serait très utile pour des tâches nécessitant une coordination à distance.

On peut alors se demander : « Ne serait-ce pas génial de partager cette intrication avec des centaines de personnes?» Peut-être, mais c’est impossible, car la seconde propriété de l’intrication est son caractère intrinsèque- ment privé. Si mon qubit d’ici est intriqué avec le vôtre à New York, alors nous savons que rien d’autre ne peut partager cette intrication. C’est pour cela que la communication quan- tique est si pratique pour les problèmes requé- rant un certain niveau de sécurité.

La distribution quantique de clé est l’une des applications les plus simples de la communication quantique, et elle pourrait être disponible dès cette année sur le réseau de démonstration que vous construisez. Quelles applications plus lointaines peut-on imaginer? Stephanie Wehner : De nouvelles formes d’in- formatique à distance deviendront possibles. Supposez que vous avez un concept de maté- riau breveté dont vous aimeriez tester les pro- priétés dans une simulation. Pour ce faire, un ordinateur quantique sera bien meilleur qu’un ordinateur classique. Mais tout le monde n’aura pas un ordinateur quantique dans son salon dans un futur proche – et probablement même pas de notre vivant.

Une solution serait de m’envoyer votre concept et que j’exécute les simulations sur l’ordinateur quantique du laboratoire. Promis, je vous enverrai les résultats, mais je dispose désormais de toutes les informations sur votre invention. Grâce au réseau quantique, vous pourriez de chez vous utiliser un appareil quan- tique très simple – en fait, il peut ne faire qu’un qubit à la fois – et transférer les qubits de votre appareil jusqu’à mon ordinateur quantique plus puissant. Il fera alors tourner les simulations sans rien livrer des caractéristiques de votre nouveau matériau. Vous serez tranquillisée grâce au réseau quantique.

Pour donner un autre exemple, on a aussi montré que l’intrication rend plus précise la synchronisation de deux horloges situées en deux endroits différents. Un tel résultat aura de nombreuses applications, par exemple en géolocalisation.

Un internet quantique aiderait aussi à créer un meilleur télescope, en combinant plusieurs télescopes séparés. Les états des particules de lumière captées par un premier télescope seraient téléportés, grâce à l’intrication quan- tique, vers un second télescope, où ils seraient combinés à ceux de ses photons perçus. Vous travaillez aussi sur la simulation du futur internet quantique. Pourquoi est-ce nécessaire ? Stephanie Wehner : Avec la plateforme de simulation très performante que nous avons construite et qui est désormais installée dans un supercalculateur, nous pouvons explorer différentes configurations du réseau quantique et comprendre des propriétés autrement plus difficiles à prédire par des méthodes analy- tiques classiques. De cette façon, nous espé- rons mettre au point un concept modulable qui puisse permettre les communications quan- tiques à travers toute l’Europe.

L’aspect imprédictible des réseaux m’a tou- jours fascinée. Les ordinateurs sont intéressants, mais ce qui m’importe vraiment, c’est la >

Un laboratoire à l’institut de technologie de Delft, aux Pays-Bas, abrite un cristal spécial, une mémoire quantique servant de nœud de réseau pour la communication quantique à longue distance.

> transmission de données d’un point à un autre. C’est pour cette raison que je me suis lancée dans le piratage puis intéressée à l’internet classique. Fondamentalement, comprendre ce qui se passe dans un réseau est très difficile, en raison du nombre important de facteurs non caractérisés. Par exemple, quand vous envoyez un message, vous ne pouvez pas prédire exactement au bout de combien de temps il parviendra au destina- taire. Le message peut se perdre, un ordinateur planter, être trop lent, voire corrompre les don- nées. Le protocole de transmission peut se heur- ter à une vieille version d’un logiciel, une nouvelle version ou une version maligne. Étiez-vous une méchante pirate avant de devenir une corsaire ? Stephanie Wehner : Ce n’est pas le genre de révélation que l’on peut faire en public! Je pense juste qu’à l’époque le monde était un endroit plus sympathique qu’aujourd’hui. Voilà tout… Pourquoi avez-vous décidé d’arrêter le piratage et de devenir une scientifique ? Stephanie Wehner : Je sais que le piratage semble très excitant, mais je pratiquais cette activité depuis un certain temps. Bien sûr, on peut améliorer ses méthodes, mais cela reste toujours un peu la même chose. J'ai fini par m'ennuyer et j’ai décidé de me lancer dans une nouvelle aventure. Puis, j’ai découvert la

Les nœuds d’un futur réseau quantique, de la main de Stephanie Wehner.

méthodes de sécurité actuelles fondées sur la factorisation. Quelqu’un enregistrant votre mes- sage aujourd’hui pourra le décrypter plus tard.

Les travaux sur le stockage avec bruit posent la question: peut-on formuler une hypothèse physique qui ne peut pas être rétroactivem ent rendue caduque? L’hypothèse physique est ici qu’il est difficile de stocker beaucoup d’états quantiques sans bruit, ce qui n’a besoin d’être vrai que pour un tout petit délai. En par-

théorie de l’information quantique qui m’a immédiatement fascinée. L’un des théorèmes que vous avez prouvés sur l’information quantique est le théorème du stockage avec bruit. De quoi s’agit-il ? Et quelles en sont les implications pour la communication quantique ? Stephanie Wehner : Le stockage avec bruit concerne la cryptographie, avec une hypothèse physique. Dans le monde de l’informatique classique, on formule sou- vent une hypothèse de départ. Par exemple, on part du principe qu’il est dif- ficile de déterminer les facteurs premiers de grands nombres, et si cette supposition est vraie, alors mon protocole est sûr. Ces preuves de sécurité sont bonnes et elles sont utilisées partout aujourd’hui, mais il ne faut pas oublier qu’elles peuvent être invalidées plus tard.

Demain, ou plus tard, quelqu’un peut inven- ter une méthode intelligente pour résoudre le problème informatique sur lequel votre sécurité se fonde: elle devient immédiatement obsolète, et de façon rétroactive. Par exemple, grâce à l’algorithme développé par le mathématicien américain Peter Shor, des ordinateurs quan- tiques factoriseront aisément de grands nombres et réduiront à néant l’efficacité des

QUELQU’UN ENREGISTRANT VOTRE MESSAGE SÉCURISÉ AUJOURD’HUI POURRA LE DÉCRYPTER PLUS TARD

tant du principe que, maintenant, vous ne pouvez stocker que jusqu’à un million de qubits avec bruit, je peux modifier les para- mètres du protocole de transmission pour augmenter la sécurité en envoyant plus d’informations que n’en peut capturer ce million de qubits. C’est efficace, parce que, si demain vous achetez de la mémoire quantique à hauteur de 2 millions de qubits, il sera trop tard, l’information aura déjà été envoyée de façon sécurisée.

Sur la base de cette idée, toutes sortes de protocoles de communication quan- tique sont envisageables. Supposons que deux personnes veuillent comparer leur mot de passe sans jamais le révéler. C’est complètement différent de ce que nous fai- sons aujourd’hui, lorsque nous saisissons notre code à quatre chiffres sur le clavier d’un distributeur de billets. À la place, nous entrerons notre code secret dans notre propre appareil, et il ne sera jamais révélé au distributeur, qui néanmoins nous donnera les billets demandés. Ce protocole devient possible avec l’hypothèse du stockage avec bruit. La quête de cet internet quantique pourrait-elle nous permettre d’approfondir nos connaissances sur les lois de la nature ? Stephanie Wehner : En science, on distingue parfois des questions dites « fondamentales »

et d’autres plutôt « pratiques », et donc banales. Je pense qu’apporter au monde réel quelque chose d’utilisable par tout le monde n’est jamais banal. C’est extrêmement diffi- cile. Il y a un bond de géant entre : « J’ai une idée géniale, par exemple un écran tactile, discutons-en sur le tableau blanc » et le smartphone que j’utilise actuellement. Avec l’internet quantique, nous sommes dans la même situation, nous essayons de le construire en partant de rien.

Nous partons d’une expérience prélimi- naire en laboratoire pour essayer de mettre en place un système étendu à tous les Pays- Bas, fonctionnant à distance et utilisable par des individus, qui, à terme, n’auront pas besoin de s’y connaître en physique pour le faire. Si une partie du système existait déjà, nous pourrions simplement dire « amélio- rons-la ». Mais créer ex nihilo est une autre affaire. Passer de rien à une première version est très long.

En faisant cela, je pense que nous accé- derons à une compréhension plus fondamen- tale dans plusieurs domaines. Nous en apprendrons plus sur la physique en rendant

possibles ces réseaux parce que, actuelle- ment, nous ne savons pas exactement com- ment le faire. Nous testons encore différents types de nœuds et de répéteurs quantiques, des appareils qui relaient l’intrication sur de plus grandes distances. Et, dans le domaine des sciences informatiques, nous découvri- rons de nouvelles façons de programmer et contrôler de tels réseaux grâce aux diffé- rences fondamentales qui existent entre les communications quantique et classique.

Mais je pense aussi que nous obtiendrons des informations sur les processus créatifs et la sociologie en suivant la façon dont les usagers s’empareront de ces nouveaux réseaux. Souvenez-vous des débuts de l’in- ternet classique, la plupart pensaient qu’il ne servirait qu’à envoyer des fichiers un peu partout. Mais la société a fait preuve de bien plus d’imagination ! Il est difficile de définir un calendrier, mais espérez-vous voir de votre vivant cet internet quantique ? Stephanie Wehner : Je suis assez optimiste à ce propos, je pense que oui. n

BIBLIOGRAPHIE G. MURTA ET AL., Towards a realization of device- independent quantum key distribution, Quantum Physics, 2019. https://arxiv.ORG/ABS/1811.07983 S. WEHNER ET AL., Quantum internet: A vision for the road ahead, Science, vol. 362(6412), eaam9288, 2018. D. CASTELVECCHI, The quantum internet has arrived (and it hasn’t), Nature, vol. 554(7692), pp. 289-292, 2018. S. WEHNER ET AL., Crypto- graphy from Noisy Storage, Phys. Rev. Lett., vol. 100, 220502, 2008.

Les Chinois ont mis un grand coup d’accélérateur avec des moyens considérables

En quelques mots, qu’est-ce qu’un ordinateur quantique ? Pascale Senellart-Mardon : C’est une ma- chine « intriquante », c’est-à-dire un dis- positif qui exploite la possibilité de su- perposer et d’intriquer les états quantiques de plusieurs systèmes phy- siques (voir Pas d’échappatoire pour l’in- trication, par R. Hanson, page 26) – c’est- à-dire de les lier de façon très étroite, spécifique à la physique quantique – afin de mettre en œuvre des calculs hors de portée des ordinateurs actuels. D’où vient la puissance calculatoire particulière que vous évoquez ? Pascale Senellart-Mardon : Pour le faire ressentir, j’aime bien utiliser cette méta- phore: rechercher la solution d’un pro- blème revient à essayer de faire traverser un labyrinthe complexe à un personnage. Si c’est un ordinateur classique qui aide

BIO EXPRESS Pascale Senellart- Mardon est directrice de recherche au CNRS et chercheuse au Centre de nano- sciences et de nanotechnologies du CNRS et de l’université Paris-Saclay. Elle a cofondé la société Quandela (grand prix i-Lab 2018), qui produit des sources de photons pour ordinateur et communications quantiques.

ce personnage, il lui fera, à chaque em- branchement, essayer successivement toutes les voies, rebrousser chemin au bout de chaque cul-de-sac, puis recom- mencer jusqu’à trouver la sortie. Il se peut que, par chance, le personnage trouve vite comment traverser, mais il se peut aussi qu’il meure avant que l’explo- ration systématique ne lui ait révélé la sortie du labyrinthe…

Si c’est un ordinateur quantique qui assiste le personnage, il le « superpose- ra», à chaque embranchement, à un alter ego qui explorera l’autre voie. En d’autres termes, on aura simultanément l’état représenté par le personnage allant à gauche et l’état d’un alter ego allant à droite. Résultat: en une étape, l’ordina- teur quantique fait essayer en parallèle toutes les voies au personnage. Il construit ainsi un état qui superpose tous les états d’alter ego effectuant tous les parcours possibles, y compris celui qui permet de traverser. Un témoin présent

à la sortie permettra alors d’extraire, parmi la multitude d’alter ego, celui qui aura traversé le labyrinthe – autrement dit la solution au problème posé. Cela revient en somme à une forme de parallélisme massif… Pascale Senellart-Mardon : Exactement, un parallélisme massif et inhérent à une pro- priété subtile du monde quantique: l’exis- tence d’états qui sont des superpositions de

personnage superposable que j’évoquais plus haut. Un bit classique ne peut valoir que 0 ou 1. Un qubit, lui, a deux états de base notés |0> et |1>, et il peut être dans une superposition des deux, c’est-à-dire dans un état de la forme a|0> + b|1>. Ensuite, l’étage de calcul va créer des liens d’intrications multiples entre

on réalise des dispositifs où des champs électriques et magnétiques piègent des ions disposés en série les uns à côté des autres; chaque ion, via l’état d’énergie d’un électron, constitue un qubit. Une impul- sion laser appropriée permet de modifier l’état électronique d’un ion, pour en faire une superposition des états |0> et |1>.

plusieurs états quantiques de base d’un certain système physique. Une autre façon de paralléliser consiste à «intriquer» l’état d’un système physique avec celui d’un autre, l’intrication étant un lien spécifique- ment quantique, qui subsiste quelle que soit la distance séparant les deux systèmes. J’insiste sur un point: puisqu’il fonctionne sur un principe différent, l’ordinateur quan- tique ne remplacera pas l’ordinateur clas- sique, mais il le complétera quand un pro- blème sera hors de sa portée… Quels types de problèmes dépassent

Il faut maintenir la cohérenc e quantiqu e assez longtem ps pour réaliser un calcul

l’ordinateur classique ? Pascale Senellart-Mardon : Si nous dispo- sions d’un ordinateur quantique, nous pourrions, de manière générale, résoudre bien plus vite tous les problèmes d’opti- misation, ceux où il faut rechercher une solution parmi un très grand nombre de possibilités. Par exemple, cette capacité pourrait nous aider à développer bien plus vite des molécules thérapeutiques, à réa- liser des simulations pour trouver enfin la formule d’un supraconducteur à vraiment haute température, à faire de meilleures prévisions météorologiques, à optimiser les investissements financiers…

Mais l’exemple emblématique est un problème arithmétique : avec un ordina- teur quantique, on pourrait décomposer un très grand nombre en ses facteurs premiers beaucoup plus vite. Cela bou- leverserait la cryptographie, puisque la sécurité du chiffrement RSA, le plus uti- lisé aujourd’hui, repose sur l’impossibi- lité, avec un ordinateur classique, d’ef- fectuer la même tâche en un temps raisonnable.

Et où en sommes-nous ? Quels sont les obstacles à surmonter pour construire un ordinateur quantique ? Pascale Senellart-Mardon: Vaste question! Disons pour commencer que les théoriciens qui développent l’algorithmique quantique supposent de pouvoir disposer d’un certain nombre de bits quantiques, ou qubits (pour quantum bits). Un qubit est l’équivalent concret du

différents qubits, liens qui contribuent au parallélisme et permettent d’aboutir au résultat très efficacement. Un ordinateur quantique consiste donc en un étage constitué d’un ensemble de qubits et en un étage qui effectue un calcul ? Pascale Senellart-Mardon : Oui, comme dans un ordinateur classique, dans un ordinateur quantique, le calcul suppose l’assemblage d’un certain nombre de portes logiques, mais les portes logiques quantiques intriquent les qubits entre eux… Aujourd’hui, la difficulté technique essentielle à franchir pour obtenir un ordinateur quantique est triple: 1) dispo- ser d’un grand nombre de qubits; 2) par- venir à les combiner en des états intri- qués ; 3) maintenir la cohérence de ces états assez longtemps pour que les calculs puissent aller à leur terme.

Ainsi, il faut d’abord avoir des qubits. Par quelles techniques y parvient-on ? Pascale Senellart-Mardon : Il en existe de l’ordre d’une vingtaine, je crois, mais quatre filières font l’objet d’un développe- ment intense. La plus avancée est celle des ions piégés, dans laquelle deux groupes mènent la course en tête: celui de Rainer Blatt, à l’université d’Innsbruck, en Au- triche, et celui de Chris Monroe, à l’uni- versité du Maryland, aux États-Unis.

La technologie des ions piégés est la mise en pratique de nos anciennes expé- riences de pensée de physique quantique:

Ensuite, l’enjeu est de construire des portes logiques quantiques qui, en pra- tique, intriquent les états des ions entre eux en jouant sur leurs fréquences d’oscil- lation dans leur piège commun.

Cette filière est très avancée puisque, pour faire des calculs, on dispose de temps de cohérence de quelques minutes, ce qui est très long. En théorie, cela permet d’empiler beaucoup de portes logiques… ce qui veut dire beaucoup d’opérations. Combien de qubits contiennent les ensembles d’ions piégés que l’on a ainsi obtenus ? Pascale Senellart-Mardon : Des annonces tapageuses dans les médias ont fait état de 70 qubits, mais seul est pertinent le nombre de qubits que l’on peut combiner tout en maintenant la cohérence quan- tique assez longtemps pour réaliser un calcul. De ce point de vue, le bon chiffre serait plutôt entre une quinzaine et une vingtaine… ce qui est aussi vrai des autres filières avancées d’aujourd’hui, que celles-ci exploitent des atomes ou des atomes artificiels.

Des atomes artificiels ? C’est-à- dire ? Pascale Senellart-Mardon : Dans la filière des ions piégés, les qubits sont des états d’énergie d’électrons atomiques. Dans les autres filières dominantes, il s’agit aussi d’états d’énergie d’électrons, mais d’élec- trons liés à des «atomes artificiels», c’est- à- dire à de petits dispositifs microscopiques conçus pour lier une telle particule. Dans >

> deux des autres filières, par exemple, les électrons sont liés soit au sein de petites boucles de courant en milieu supraconduc- teur, soit au sein de «boîtes quantiques» réalisées dans du silicium – de minuscules structures où l’électron est confiné.

Tandis que Google et IBM mènent la danse dans la première filière, des équipes des Pays-Bas, d’Australie et des États-Unis la mènent dans la deuxième. Des cher- cheurs du CEA et du CNRS à Grenoble s’y sont aussi lancés en 2016. Bref, dans ces filières, on a reconstitué au sein d’atomes artificiels l’équivalent d’une échelle des états d’énergie d’électrons atomiques. La très grande subtilité technique de la construction et du maintien en cohérence des superpositions d’états en milieu solide a limité jusqu’à présent le nombre de qubits atteint: il est d’environ 20 dans le cas des dispositifs supraconducteurs, et de 2 dans le cas des boîtes quantiques en silicium… Seulement 2 ? Pourquoi alors poursuivre dans cette voie ? Pascale Senellart-Mardon : Ce nombre modeste de qubits du côté du silicium re- flète le grand défi à relever pour que cette technologie soit viable: trouver le moyen d’augmenter le nombre de qubits intriqués. Pour autant, comme cette filière s’appuie sur la technologie CMOS qui sert à pro- duire les microprocesseurs actuels, son potentiel industriel est grand et il est donc important de l’explorer. Si l’on parvenait à

les introduisant simultanément à l’entrée d’un circuit optique effectuant le calcul. Les portes logiques quantiques peuvent être réalisées à base de miroirs, de lames semi- transparentes, c’est-à-dire de séparateurs de faisceau et autres déphaseurs, le tout relié à des détecteurs via un réseau de fibres optiques. Or les états photoniques peuvent voyager très loin sans perdre leur cohé- rence; donc, si l’on parvient à éviter les pertes, on peut réaliser un grand nombre de portes logiques. Et, ce qui ne gâche rien, les ordinateurs quantiques optiques sont évi- demment compatibles avec les réseaux de communication optique. Tout semble donc aller pour le mieux dans ce monde photonique ? Pascale Senellart-Mardon : Sauf qu’il y a une difficulté de taille… Lorsqu’on effectue un calcul, il existe une probabilité élevée de n’aboutir à aucun résultat. Cela tient au principe des portes logiques qui utilisent des séparateurs de faisceau. Comme, à chaque séparateur, les photons intriqués ont 50% de chance de ne pas être transmis par la voie qui, après beaucoup d’autres embranchements, mènera au détecteur, il se peut qu’aucun signal ne sorte. Pour reprendre l’image de tout à l’heure, tout se passe comme si l’étage de calcul était un labyrinthe dont la traversée résout un

d’autres moyens de faire des calculs à grande échelle: on ne partira plus d’états à un photon, mais, pour limiter le nombre de portes logiques, d’états intriqués à plusieurs photons. Cette autre façon de calculer re- pose sur une autre architecture de calcul quantique, dite «fondée sur la mesure». Finalement, cette filière de l’ordinateur quantique et optique est-elle prometteuse ? Pascale Senellart-Mardon : Elle a semblé au point mort pendant longtemps, parce que pour produire les états superposés de dé- part, il faut des sources de photons à la fois uniques – arrivant seuls – et absolument identiques – de même fréquence. Or les sources dont nous disposions dans le pas- sé étaient si peu efficaces qu’il fallait prati- quement deux ou trois ans, le temps d’une thèse de doctorat, avant de parvenir à exé- cuter un petit calcul.

Pourquoi la situation a-t-elle changé ? Pascale Senellart-Mardon : Parce que mon équipe au Centre de nanosciences et de nanotechnologies a réussi à mettre au point un petit composant presse-bouton, qui peut émettre à volonté des photons un par un. Pour aller vite, nous avons mis une boîte quantique – un atome artificiel donc, où un électron ne peut occuper que certains

intriquer un grand nombre de qubits réali- sés en semi-conducteurs, on aurait toute facilité pour les produire par millions… Mais les intriquer en grand nombre ne suffit pas ; ne faut-il pas aussi réussir à conserver la cohérence des états correspondants ? Pascale Senellart-Mardon : Oui, il y a aussi un défi du côté de la cohérence, comme dans tout système à l’état solide, mais le défi est aussi du côté de la «connectivité», c’est-à-dire la capacité à intriquer des qu- bits qui sont distants les uns des autres.

Des spécialistes des algorith mes commen cent à envisage r la program mation d’ordinat eurs quantiq ues

Pour l’instant, l’état de l’art avec le silicium consiste à intriquer une boîte quantique avec sa plus proche voisine seulement! Existe-t-il une autre filière où l’on peut espérer intriquer un grand nombre de qubits sans perdre trop rapidement leur cohérence ? Pascale Senellart-Mardon : La mienne, peut-être, celle de l’ordinateur quantique optique. Dans cette voie, les qubits sont par exemple les états de polarisation de pho- tons uniques, photons que l’on combine en

problème difficile, mais qu’à chaque em- branchement, le candidat perd la moitié de sa substance – de son intensité lumi- neuse utile – quand il se dédouble en un état superposé de son alter ego et de lui- même… Autrement dit, au bout d’un mo- ment, on va perdre trop de lumière pour parvenir à faire le calcul. C’est un obstacle sérieux… Pascale Senellart-Mardon : Oui, mais nous avons des solutions pour affronter cette difficulté. Des théoriciens ont trouvé

niveaux d’énergie – à l’intérieur d’une cavi- té optique. Comme pour tous les atomes, si on excite cet atome artificiel, il va en se désexcitant émettre un seul photon, mais dans une direction quelconque. Ici, la cavi- té et les miroirs qui la constituent ont été choisis de telle façon qu’ils augmentent la probabilité que la lumière se concentre dans une direction donnée. En d’autres termes, grâce à la cavité, on contrôle l’«émission spontanée» de l’atome.

Sans cavité optique, tout se passe comme si l’énergie lumineuse émise par

l’atome artificiel sortait d’une grande bai- gnoire par une infinité de petits trous. Avec la cavité optique, on ajoute en pra- tique un énorme trou dans la baignoire… et naturellement la majorité de l’énergie lumineuse va maintenant s’écouler par ce trou. Il nous suffit alors de la collecter, avec une fibre optique. Notre « bai- gnoire», les miroirs qui la constituent et la boîte quantique qu’elle contient for- ment une petite structure monolithique en semi-conducteur de 20 micromètres de diamètre (voir la photo ci-dessus).

Ce qui a relancé la voie optique ? Pascale Senellart-Mardon : Oui. En 2016, nous avons publié dans la revue Nature Photonics un article qui a eu un grand impact, puisqu’en deux ans, il a été cité plus de 400 fois. Depuis, nous sommes assaillis de demandes de chercheurs qui veulent utiliser nos sources de photons uniques pour faire du calcul quantique… Comment réagissez-vous à ce succès ? Pascale Senellart-Mardon : Comme nous ne pouvions pas faire face à toutes les de- mandes, avec Valérian Giesz et Niccolo Somaschi, nous avons créé la société Quan- dela. Mon rôle au CNRS consiste à faire de la recherche, et non à fabriquer des sources pour tous les chercheurs du monde qui en ont besoin. Maintenant, grâce à Quandela, nous pouvons leur fournir des sources qui, par rapport aux anciennes, réduisent le

temps de calcul de un milliard pour neuf qubits, c’est-à-dire ici neuf photons… Nous en avons déjà vendu en Australie, mais nous avons aussi des collaborations avec des chercheurs qui viennent dans notre laboratoire avec leur puce optique pour effectuer des calculs. Si je comprends bien, l’aspect matériel de l’ordinateur quantique en est encore à ses débuts, bien que l’on progresse. Et pour l’aspect logiciel ? Existe-t-il déjà des algorithmes ou des programmes pour ordinateurs quantiques ? Pascale Senellart-Mardon : Les recherches dans ce domaine ont très longtemps été une activité de physiciens d’un côté, et de théoriciens faisant de l’algorithmique quantique de l’autre. Actuellement, quelque chose de nouveau apparaît : des informaticiens spécialistes des algo- rithmes commencent à envisager la pro- grammation d’ordinateurs quantiques. Corrélativement, de grandes entreprises essaient de les encourager: en 2019, au CES de Las Vegas, le plus grand salon d’électronique grand public du monde, IBM a ainsi présenté Q System One, un système à 20 qubits mis sur le réseau. Contre un abonnement onéreux, les gens qui s’intéressent au développement de logiciels quantiques peuvent s’en servir pour tester des algorithmes… La société Atos, en France, a une autre approche: en

préparation de l’avènement du calcul quantique, elle a dédié un gros calculateur classique à la simulation d’un ordinateur quantique, ce qui permet aussi de s’habi- tuer aux calculs quantiques, de repérer les erreurs les plus dommageables, d’étudier la façon dont les utilisateurs s’y prennent… L’Union européenne a lancé fin 2018 un Quantum Flagship, un programme phare sur l’ordinateur et le calcul quantique. Un tournant pour la recherche européenne ? Pascale Senellart-Mardon : Ce programme va financer à hauteur de un milliard d’euros sur dix ans des projets pour dé- velopper l’ordinateur quantique, les si- mulateurs, les communications et les capteurs quantiques, tout en maintenant un effort de recherche fondamentale. Cet investissement financier n’est fina- lement pas énorme, si l’on songe que la somme va se répartir sur l’ensemble de la communauté européenne. L’attribu- tion des financements est démocratique, ce qui a du bon, mais cela empêche de concentrer l’investissement dans les projets les plus avancés.

Il semble donc que la cavalerie européenne arrive, sans se presser… Comment cela se passe-t-il ailleurs ? Pascale Senellart-Mardon : Je connais par exemple le cas des Chinois. En 2017, ils ont déjà secoué la communauté >

> quantique internationale en mettant en œuvre une communication quantique depuis un satellite, alors que l’idée de faire cela avait été évoquée en Europe, notamment par Anton Zeilinger, de l’uni- versité de Vienne.

Ils ont récidivé en 2020 en établissant une communication entre un satellite quantique (Quess), surnommé Mozi, et la toute première station quantique mobile terrestre du monde. La communication aurait duré près de huit minutes.

Les Chinois déploient déjà un réseau de communications quantiques sur des milliers de kilomètres. Au fil de nos pro- grès sur les sources de photons uniques, qui nous ont permis de relancer les tra- vaux sur l’ordinateur optique, des équipes chinoises se sont engouffrées dans cette filière. Elles avancent extrêmement vite, sont fortes, ont de gros effectifs et n’ont apparemment pas de limites aux moyens qu’elles peuvent demander…

Depuis peu, le chef de l’une de ces équipes explique dans les conférences que la Chine va démontrer l’avantage d’un ordinateur quantique par rapport aux plus gros calculateurs classiques grâce la technologie optique. Clairement, les Chinois ont mis un grand coup d’accé- lérateur sur les technologies quantiques. Pour autant, l’ordinateur quantique est-il un objectif réaliste? Pensez-vous que l’on arrivera à intriquer des millions de qubits et que l’on saura maintenir la cohérence quantique assez longtemps pour effectuer de gros calculs? Selon certains physiciens éminents, le Prix Nobel Serge Haroche notamment, cela restera une utopie… Pascale Senellart-Mardon : Comme tous les physiciens qui travaillent à maîtriser les effets quantiques subtils – l’intrica- tion, la décohérence – pour rendre pos-

c o m p o s a n t sq u a n t i q u e s ,d e st h é o r i c i e n sd e sr é s e a u xq u a n t i q u e se td e sg e n sd e sg r a n d e se n t r e p r i s e sd et é l é c o m m u n i c a -t i o n ,q u io n tv é c ul ar é v o l u t i o nd el ’ i n t e r -n e tàh a u td é b i t .Q u a n di l sn o u so n te n -

Les équi pes chin oises avan cent très vite et n’ont appa rem ment pas de limit es en term es de moye ns

t e n d u sr i v a l i s e rd ep r u d e n c ee né v o q u a n tn o sd i f f i c u l t é sp o u ra v a n c e r ,l e u rm e s s a g eaé t é«M a i sa r r ê t e zd ev o u sp r e n d r el at ê t e !V o u sv e r r e z . »D ef a i t ,m ê m es il ’ o nm ’ a v a i td i ti lyad i xa n sq u em o nd o m a i n er e s s e m b l e r a i tàc eq u ’ i le s ta u j o u r d ’ h u i ,j en ’ ya u r a i sp a sc r u .S il ’ o ns er a p p e l l eo ùe né t a i e n tl e st é l é c o m m u n i c a t i o n sd a n sl e sa n -n é e s1 9 6 0 ,q u a n dd e so p é r a t r i c e sc o n n e c t a i e n tl e sg e n sàl ’ a i d ed ef i c h e sd a n sd e ss t a n d a r d st é l é p h o n i q u e s ,e s t - c eq u eq u e l q u ’ u nd ec e t t eé p o q u ea u r a i tc r uq u ’ a u j o u r d ’ h u in o u sa u r i o n st o u sàl am a i nu np e t i to r d i n a t e u rs u p e r c o m m u -n i c a n t ,c a p a b l ed et é l é c h a r g e rs a n sc o n t a c td e sf i l m se nq u e l q u e ss e c o n d e s ,d es y n c h r o n i s e rs o nh o r l o g e ,d es ec o n n e c t e ràu nr é s e a um o n d i a la p p e l éi n t e r n e t ,d ef a i r ec a l c u l e ràd i s t a n c eu nt r a j e t ,d ep a y e r …

? B I B L I O G R A P H I E Nous pouvons donc croire aux

sible le calcul quantique, je vois l’énor- mité des obstacles à franchir et ils m’intimident. Quand j’y pense, j’ignore ce qui va se passer. Mais ça, c’est de la pen- sée linéaire, alors que nous sommes, avec tout ce qui est technologique, dans un domaine non linéaire, où l’on avance par des ruptures, comme l’illustrent les pro- grès permis par nos nouvelles sources de photons uniques.

Vos confrères pensent-ils comme vous? Pascale Senellart-Mardon : En 2015, j’ai participé aux États-Unis à un séminaire de réflexion sur la construction des futurs réseaux quantiques, où étaient invités des physiciens développant comme moi les

ordinateurs quantiques ? Pascale Senellart-Mardon : Comment dire ? Le chemin que nous avons suivi pour aller du stade où nous en étions à l’époque des communications par séma- phores, au XVIIIe siècle, à celles de notre quotidien a aussi été une succession de promesses faites, d’échecs à les satis- faire, puis d’inventions d’alternatives ouvrant sur de nombreuses possibilités auparavant insoupçonnées. J’ai l’impres- sion que dans la quête de l’ordinateur quantique, la même chose se passe… à un rythme effréné. n

PROPOS RECUEILLIS PAR FRANÇOIS SAVATIER

B. ZYGELMAN, A First Introduction to Quantum Computing and Information, Springer, 2018. P. SENELLART ET AL., High-performance semiconductor quantum-dot single-photon sources, Nature Nanotechnology, vol. 12, pp. 1026-1039, 2017. M. A. NIELSEN ET I. L. CHUANG, Quantum Computation and Quantum Information, Cambridge University Press, 2010. D. MERMIN, Calculs et algorithmes quantiques, EDP Sciences et CNRS Éditions, 2010.

À LIRE EN PLUS

Einstein et les révolutions quantiques ALAIN ASPECT CNRS, 2019 (80 PAGES, 8 EUROS)

a première révolution quantique

a bouleversé notre vision du monde et conduit à des inventions majeures: le transistor, le laser, les ordinateurs. Moins connue est la deuxième révolution quantique engagée en 1935 par le débat entre Albert Einstein et Niels Bohr. Cette révolution repose sur la notion étrange de particules intriquées qui pourrait déboucher à terme sur des technologies nouvelles comme l’informatique quantique. Cet ouvrage raconte une magnifique histoire de science, dans laquelle l’expérimentation a permis de trancher des débats philosophiques.

Magique quantique TIM JAMES DUNOD, 2020 (240 PAGES, 19,90 EUROS)

u début du xxe siècle, la science semblait complète et les lois de la nature toutes découvertes, mais des chercheurs intrépides ont réveillé un géant endormi, la mécanique quantique. Dans le monde quantique, les objets peuvent se trouver en deux endroits à la fois, voyager dans le temps est non seulement possible, mais nécessaire, la cause et l’effet peuvent s’inverser et l’observation de quelque chose change son état. Des univers parallèles à l’antimatière, laissez-vous guider par le facétieux Tim James à la découverte des bizarreries du monde de l’infiniment petit!

Petit voyage dans le monde des quanta ÉTIENNE KLEIN FLAMMARION, 2016 (194 PAGES, 8 EUROS)

n 1905 apparaissait une nouvelle physique qui allait révolutionner la façon de décrire la matière et ses interactions: la physique quantique. Elle obligea ses pères fondateurs, Einstein, Bohr, Heisenberg et Schrödinger notamment, à rediscuter le déterminisme et les critères de réalité de la physique classique. Pour la première fois dans l’histoire des sciences, une discipline exigeait un travail d’interprétation afin d’être comprise et appliquée. D’où provient l’incroyable efficacité de la physique quantique?

La Physique quantique en 5 minutes par jour BLANDINE PLUCHET FIRST, 2019 (160 PAGES, 2,99 EUROS)

n petit livre pour tous ceux qui, curieux de physique, mais néophytes en la matière, souhaitent enftn comprendre ce qui se cache derrière cette notion de «  quantique», dont on entend régulièrement parler sans bien savoir ce qu’elle signifte, souvent d’ailleurs utilisée à tort et à travers. Pour tous ceux qui, curieux, ont envie de faire un voyage dans la pensée des scientifiques, pour y découvrir un monde insaisissable à nos sens, celui de l’infiniment petit, où les lois qui régissent les phénomènes n’ont rien à voir avec celles du monde à notre échelle.

BANDE DESSINÉE

Quantix – La physique quantique et la relativité en BD LAURENT SCHAFER DUNOD, 2019 (176 PAGES, 18,90 EUROS)

os sens nous mentent: temps, matière et énergie n’existent pas

tels que nous les percevons. Découvrez cette réalité cachée en suivant les aventures d’une famille ordinaire, et partez à la rencontre de ces chercheurs dont les idées ont révolutionné notre vision du réel: Einstein, Schrödinger, Bohr… et bien d’autres! Le physicien spécialiste de physique quantique Carlo Rovelli a trouvé cet ouvrage « Amusant et fascinant!», tandis que Zep, le créateur de Titeuf, y a trouvé une excuse pour ne plus faire de jogging…

Et si la matière noire n’existait pas? La théorie Mond dispense l’Univers de la mystérieuse matière noire. Une simulation de galaxie à partir d’un simple nuage de gaz accrédite sa plausibilité.

armi les grandes énigmes de l’Univers, ftgure notamment la matière noire, décrite dans le Hors-Série n° 106: « Enquête sur l’Univers noir ». Elle a surgi dans les années 1930 à la suite des observations de Fritz Zwicky montrant des vitesses de dispersion des galaxies bien trop élevées par rapport à ce que laissait supposer la matière visible: il devait donc y avoir une « masse manquante», une matière noire. Celle-ci représenterait quelque 25% du contenu l’Univers. Problème, on n’a jamais réussi à la détecter! Est-on si sûr de son existence?

En 1983, le physicien israélien Mordehai Milgrom a proposé de s’en passer avec une théo- rie de la gravitation modifiée nommée Mond (pour Modified Newtonian dynamics) et selon laquelle sur de grandes échelles, la gravité selon Newton est modifiée: pour de très faibles accélé- rations comme on les rencontre dans les galaxies, la force de gravitation augmenterait et les empê- cherait de se désagréger malgré les vitesses de rotation observées. Mais jusqu’où Mond est-elle compatible avec les observations?

Benoît Famaey, de l’observatoire astrono- mique de Strasbourg, et deux collègues de l’uni- versité de Bonn, en Allemagne, ont publié récemment la première simulation de la forma- tion d’une galaxie selon les principes de Mond

avec un outil informatique spécialement conçu, Phantom of Ramses. C’est une première!

La nouveauté est ici que la modélisation débute dans un nuage de gaz sphérique, en rotation, peu après le Big Bang, dans des condi- tions bien plus primitives que les tentatives précédentes. Plus encore, le modèle tient compte de l’influence de divers phénomènes stellaires comme le rayonnement des étoiles, le souffle des supernovæ… À mesure des calculs, apparaissent les premières étoiles, puis les caractéristique s connues des galaxies, à savoir un centre plus dense, puis une densité en gaz et en étoiles diminuant vers la périphé- rie. On distingue également des bras spiralés. C’est un nouveau succès pour Mond, qui expliquait déjà mieux que le modèle standard avec matière noire le disque de galaxies naines autour d’Andromède. Pour autant, est-ce la mort de la matière noire ? Pas sûr, car elle a d’autres arguments, non observationnels cette fois, en sa faveur. Par exemple, grâce à l’étude de la nucléosynthèse primordiale, on sait que la matière ordinaire (dite «  baryonique») ne peut représenter plus de 5 % de l’Univers. Le mystère reste entier… n

N. WITTENBURG ET AL., HTTPS://ARXIV.ORG/A BS/2002.01941

Une galaxie née sans matière noire. Les points clairs représentent les jeunes étoiles.

Voyons maintenant à quoi ressemblent, schématiquement, les mathématiques qui se cachent derrière l’algorithme de Grover conçu pour rechercher un élément dans une liste, par- fois gigantesque, avec un ordinateur quantique. Dans ce cas, à chaque élément de la liste est associée une probabilité et l’algorithme va s’attacher à débusquer la plus proche de 1. Plus précisément, l’ensemble des probabilités défi- nit un vecteur que l’ordinateur quantique manipule (rotation, symétrie…) et Grover a découvert une façon astucieuse de le faire afin d’obtenir l’élément de la liste recherché.

Dans ses travaux, Gregory Galperin rai- sonne dans l’espace des positions des deux masses, mais on peut aussi exprimer leurs vitesses par un vecteur unique qui est modifié à chaque collision. Par exemple, il subit une symétrie autour de l’axe des abscisses quand X rebondit sur le mur. Adam Brown a montré que la façon dont les chocs modifient le vec- teur des vitesses est semblable à celle dont l’algorithme de Grover modifie le vecteur représentant une liste afin de trouver l’élé- ment recherché. De là à chercher un nom dans le bottin (à partir du seul numéro) avec deux masses glissantes… n

e Hors-Série n° 105: «Qui sommes-nous? Les nouvelles réponses de la génétique» montrait que notre ADN est loin d’être le seul à gouverner le fonctionnement de nos cellules et de notre organisme. De fait, il doit compter, d’une part, sur l’apport des milliards de bactéries de notre microbiote intestinal et, d’autre part, sur les modifications épigénétiques qui influent sur l’expression des gènes. Dina Bellizzi, de l’université de Calabre, à Rende, en Italie, et ses collègues font le point sur les liens entre ces deux niveaux de contrôle.

Les bactéries intestinales fabriquent de nombreux métabolites dont les fonc- tions complètent celles de nos propres enzymes, avec des effets à court et long terme. Des déséquilibres dans cette production peuvent entraîner divers troubles. Parmi ces substances, citons des acides aminés, des vitamines, des hormones, des neurotransmetteurs et des acides gras à chaîne courte (acétate, propionate et butyrate) sur lesquels l’accent est mis.

Et pour cause, ils interviennent à la fois dans la méthylation de l’ADN et la modification des histones, deux mécanismes épigénétiques majeurs. Ainsi, on a montré que le profil épigénétique des cellules sanguines et du tissus adipeux diffère chez les individus obèses, dont le microbiote était appauvri en bactéries Bacteroïdetes par rapport à celui de sujets sains. Autre exemple, les acides gras à chaîne courte exercent un effet anti- inflammatoire en favorisant l’acétylation des histones dans les lymphocytes T CD4+.

Pour achever de vous convaincre, citons un dernier lien important. Les vita- mines B2, B12, B6… synthétisées par le microbiote sont essentielles aux ADN- et histones-méthyltransférases (des enzymes responsables de transformations épigénétiques), car elles leur fournissent indirectement le groupe méthyle qui influera sur l’expression des gènes.

Les exemples sont multiples, et au terme de leur énumération, les auteurs lancent un appel: certes les liens entre microbiote et épigénétique sont connus, mais la recherche sur les mécanismes qui les sous-tendent est encore insuffisante. n

A. BROWN, HTTPS://ARXIV.ORG/ABS/1912.02207 P. D’AQUILA ET AL., NUTRIENTS, VOL. 12(3), P. 597, 2020

POUR LA SCIENCE HORS-SÉRIE N° 107 / MAI-JUIN 2020 / 111

es océans sont des acteurs clés du cli- mat, notamment parce qu’ils piègent une grande part du carbone atmosphé- rique, le Hors-Série n° 104: «Océans. Le der- nier continent à explorer» en détaillait les rôles. L’une des pompes à carbone est purement phy- sique: le carbone se dissout dans l’eau et est entraîné par les mouvements marins. L’autre est biologique. Grâce à la photosynthèse, le phyto- plancton capture le dioxyde de carbone pour en faire des molécules organiques qui, à la mort des

interrompue, car les toutes petites particules ainsi produites sont prises dans les courants et la circulation de l’eau: la gravité n’est plus suf- fisante. La fragmentation serait donc l’explica- tion principale à la « disparition» du carbone avant qu’il ne rejoigne le plancher océanique.

Étonnamm ent, des disparités régionales ont été observées. Un nouvel engin plus encore perfectionné est en cours de préparation pour éclaircir ce point, et répondre à d’autres ques- tions… en suspens dans l’eau! n

organismes, sombrent. Mais tout n’atteint pas

le fond et la zone abyssale… Que se passe-t-il? Nathan Briggs, du Centre d’océanographie de Southampton, en Grande-Bretagne, s’est pen- ché sur la question.

De fait, sur les 50 milliards de tonnes de carbone transformé en matière organique à la surface de l’océan par les microorganismes, seuls 20 % pénètrent dans la zone mésopéla- gique soit 10 milliards de tonnes. Et seuls 10 % de ces 20 %, soit un milliard de tonnes (2% de la masse initiale) finira séquestré dans les pro- fondeurs abyssales pour y rester à perpétuité. Des balises Argo déjà équipées pour des mesures physiques (température, salinité…) ont été dotées de nouveaux instruments de mesure par Hervé Claustre, du Laboratoire d’océanographie de Villefranche-sur-Mer, comme des capteurs de chlorophylle (pour estimer la quantité de phytoplancton) et de rétrodiffusion de la lumière (pour l’ensemble des particules). Après avoir exploré à diffé- rentes saisons plusieurs régions océaniques, essentiellement dans l’Atlantique Nord et dans le sud de l’océan Indien, cette panoplie d’outils a précisé les aléas du destin du carbone.

Jusqu’à 200 mètres, le carbone issu du phy- toplancton, mais aussi des déjections du zoo- plancton, de bactéries et de divers composés organiques… s’agrègent en « gros » amas de 200 à 2000 micromètres de diamètre qui fran- chissent la frontière supérieure de la zone mésopélagique. Avec une telle taille, ils devraient ensuite la traverser sans difficulté.

Mais non, leur destin est tout autre. Sous l’effet probable de bactéries et de la turbulence, les agrégats se fragmentent, et beaucoup plus qu’on ne l’imaginait. Dès lors, la chute vers les profondeurs du carbone est en partie

N. BRIG GS ET AL., SCIEN CE, VOL. 367( 6479 ), P. 791- 793, 2020

Un robot flotteur- profileur équipé de capteurs biologiques et chimiques, qui peut réaliser des mesures entre la surface de l’océan et 2 000 mètres de profondeur.