Dans ma première partie d’article, nous nous sommes attachés à décortiquer la miniaturisation des processeurs dits « classiques », la rupture de la loi de Moore et son évolution (loi de more than Moore) et j’avais introduit les bases de mécanique quantique ainsi que les fameux Qubits.

Continuons notre plongée dans l’univers des ordinateurs quantiques.

Un peu d’histoire

En 2017 des noms comme Moore et entre autre Alan Turing, le père de l’informatique moderne, nous parlent dorénavant beaucoup plus, ce dernier notamment ayant fait l’objet d’une réhabilitation méritée ces derniers temps.

(Au passage je vous conseille de regarder l’excellentissime « Imitation Game » avec Benedict Cumberbatch, film qui relate les travaux de Turing pendant la 2e guerre mondiale pour décrypter Enigma qui donnera naissance au premier « ordinateur »)

Mais Il en est un qui avec l’essor de l’informatique quantique va prendre de l’ampleur il s’agit de Richard Feynman.

Richard Feynman
Physicien de génie (prix nobel en 1965), ayant travaillé avec les plus grands (Bohr, Oppenheimer…) et trop peu connu du grand public, il est le premier à imaginer en 1985 l’idée d’un ordinateur quantique, dans son fonctionnement global, une machine capable de « simuler la physique comme une simulation exacte ; de faire exactement la même chose que la Nature » il pose ce postulat :

« Au lieu de nous plaindre que la simulation des phénomènes quantiques demande des puissances énormes à nos ordinateurs actuels, utilisons la puissance de calcul des phénomènes quantiques pour dépasser nos ordinateurs actuels »

Disparaissant en 1988, il n’aura pas le temps de s’atteler à cette nouvelle aventure mais cette idée va faire son chemin.

Il faudra attendre 1994 pour que Peter Shor mathématicien de renom édicte un premier algorithme quantique.
Pourquoi un nouvel algorithme ? Parce que l’idée d’un ordinateur quantique avec ses Qubits calculant toutes les solutions d’un problème en même temps est bien séduisante, mais il lui fallait une nouvelle façon de programmer ! A nouveau monde, nouvelles règles !

Nous avons donc une première utilité à un ordinateur quantique : l’algorithme de Shor (permettant la factorisation de grand nombre) suivi en 1996 de l’algorithme de Grover (permettant de trouver facilement une entrée dans une base de données non triée), reste à créer cet ordinateur !

Et c’est en 1998 qu’il voit le jour grâce à IBM, il fait 2 Qubits il est aussi puissant qu’une calculatrice, mais l’idée de Feynman est passé du papier à la réalisation et ça marche ! Une chose est sûre les fondations sont posées, les crédits sont débloqués, la course à l’ordinateur quantique est définitivement lancée. 


Les obstacles des ordinateurs quantiques :

Je vous l’avais expliqué dans un premier temps, l’informatique quantique n’a rien à voir avec l’informatique classique.
L’ordinateur classique fait ses calcul les un à la suite des autres, les ordinateurs quantiques calculent en même temps toutes les possibilités. Pour résumer l’ordinateur quantique est un ordinateur PROBABILISTE.

Ce qui fait qu’il ne donne (pour l’instant) pas de réponse exacte mais plutôt une réponse probable (plus ou moins proche de 100%).
Pour certains algorithmes, il est nécessaire d’effectuer les calculs plusieurs fois jusqu’à ce que la réponse vérifie une certaine propriété.
C’est un premier frein et les chercheurs essayent de faire tendre les nouveaux projets vers 100%.

Le second problème est notre fameuse décohérence quantique (souvenez-vous du chat de Schrödinger du précèdent article !) Nous n’avons pas accès aux calculs intermédiaires.
A partir du moment où nous observons un Qubits par définition en état de superposition quantique (0 et 1 à la fois), nous figeons le résultat de ce dernier !
Une fois la réponse donnée … tous les calculs menant à cette dernière disparaissent ! Et pour la même raison il est impossible de copier des Qubits !

Un troisième obstacle est le temps de cohérence quantique.
Il n’y a pas que le fait d’observer le résultat qui provoque une décohérence quantique, la moindre modification du milieu où s’opère le calcul, fait retourner vos beaux Qubits superposés en 0 et 1, en de bêtes bits 0 ou 1, le carrosse qui redevient citrouille en somme.
Par modification, j’entends température, magnétisme, gravité ect… d’où le besoin pour faire fonctionner un ordinateur quantique d’un milieu extrêmement contraignant (j’y reviendrais)
Le but du jeu est donc simple, maintenir un milieu inchangé le temps du calcul, sans la moindre perturbation extérieure. Pour l’instant les records se comptent en dizaine de minutes, pas suffisant pour des calculs importants.

Dernier frein : les ordinateurs quantiques actuels sont prototypés pour répondre à UN algorithme spécifique (comme celui de Shor ou de Grover), la recherche d’un ordinateur quantique universel pouvant répondre à divers problèmes et faire tourner différents algorithmes est le saint graal de la physique quantique mais est encore bien éloigné de la réalité
Le hardware d’un ordinateur quantique ressemble à quoi ?
Pour répondre à cette question il faut bien comprendre qu’il existe actuellement différentes méthodes testées pour arriver à construire un ordinateur quantique, et comme chaque balbutiement de technologie, chacune rencontre des obstacles.
Ils ont néanmoins comme point commun d’être isolés dans des milieux stériles (sous vide) et/ou  souvent extrêmement froid, le record étant le D-wave tournant à -273°C (le zéro absolu étant à -273.15°C) afin de maximiser le temps d’état de superposition quantique nécessaire aux calculs.

Ils ont pour but de créer des Qubits, en essayant de maintenir un système quantique (un atome, une particule, une paire de particule) en état de superposition.

Ordinateur quantique IBM
Je ne vais pas trop entrer dans les détails car bien trop complexes mais nous avons actuellement comme système :
Les ordinateurs quantiques à RMN liquide : RMN veut dire Résonnance Magnétique Nucléaire qui fonctionne exactement comme les IRM (Image à Résonnance Magnétique – fun fact : le nom RMN n’a pas été utilisé pour cet appareil car les patients prenaient peur en entendant Nucléaire).
Ici ce sont les champs magnétiques qui maintiennent l’état de superposition.
Les ordinateurs quantiques Optique : ces derniers fonctionnent avec des lasers et utilisent des photons (lumière).
Les ordinateurs quantiques à point quantiques : même concept que les optiques sauf qu’il s’agit « d’emprisonner » des électrons et les faire entrer en état de superposition grâce aux lasers
Les ordinateurs quantiques à ions piégés : même concept que ci-dessus mais en emprisonnant cette fois ci des Ions, à noter que ce type de calculateur est très précis dans ses probabilités (proche de 99%) ce qui est une voie de développement très intéressante.
Les ordinateurs quantiques à diamant coloré : utilise des diamants impurs (par exemple jaunes) les impuretés étant dues à l’azote emprisonnés dedans. On crée des fines couches de diamants impurs et on fait entrer en état de superposition les atomes d’azote déjà piégés dedans.
A noter que cette technique peut se faire à l’air ambiant ! (le diamant isolant les atomes d’azote dans un milieu sans perturbations)
Les ordinateurs quantiques à semi-conducteur :  c’est cette technologie qui avance le plus rapidement, plus facile à mettre en œuvre, elle utilise des propriété quantique du silicium, afin de capturer des photons (lumière) dans des cristaux de silicium.
La cohérence quantique serait assurée assez longuement pour le calcul.

C’est par ce biais que le supercalculateur dont Google est le partenaire, le D-wave a vu le jour.

Mais où en est-on ?

Et bien les recherches avancent vite, comme le prouvent les différentes technologies qui voient le jour.
Elles sont testées en général en laboratoire : on essaye de faire naitre un calculateur quantique universel, on essaye de gagner en temps de cohérence (le temps où les Qubits sont en superposition), en température, en miniaturisation pour les dispositifs à lasers … partout des avancées apparaissent … plus ou moins médiatisées.

Ce sont les universités du monde entier qui font le plus avancer les technologies : Yale, Vienne, Californie, College of London, New south Wales, Innsbruck et même (cocorico) Saclay pour ne citer qu’elles, mais les gouvernements ne sont pas en reste : à ce titre le Canada semble en avance sur le sujet, les US et la Chine et l’Europe investissent des sommes colossales ne souhaitant pas rater le coche.

Dans ce large panel d’intervenants, les plus médiatisés sont les multinationales qui se sont lancées dans l’aventure : Google avec son D-wave, IBM qui fut le premier à créer des Qbit, et fermant la marche Microsoft qui compte bien refaire son retard en annonçant en novembre 2016 faire des ordinateurs quantiques sa priorité.

C’est le D-wave de l’entreprise D-wave System supporté par Google qui fait  le plus parler de lui sur twitter ou dans les médias.
Lancé en 2007, cette entreprise indique avoir créé un ordinateur quantique de 7Qubit, puis en avril 2009, 128 qubits ce qui est incroyable quand on sait que les meilleurs labos du monde plafonnent à 3 qubits à cette époque.

D Wave ordinateur quantique

Les choses vont s’accélérer quand la jeune entreprise Canadienne signe un partenariat avec Google fin 2009, elle vend à Lockeed Martin (Sté d’armement américaine) son premier calculateur 128 Qubits.
En 2015 elle annonce avoir franchi les 1000 Qubits avec le D-wave 2X, en 2016 elle signe un nouveau partenariat avec la Nasa puis en 2017 annonce l’arrivée d’un ordinateur quantique de 2000 Qubits !!!!

Chiffres effarants, levées de fonds colossaux, gros titres dans tous nos journaux, progression scientifique effarante, ce qu’oublient bien souvent de dire nos médias c’est que l’histoire de D-wave system suscite beaucoup de doutes au sein de la communauté scientifique…

« En laboratoire, on ne parvient pas à faire marcher 10 q-bits et eux prétendent en faire marcher 500 ? Soit ils ont réussi là où tout le monde a échoué, à savoir résoudre ce fameux problème de la décohérence, soit il s’agit d’une immense opération d’intox…. » M. Saminadayar, Professeur à l’Université de Grenoble et chercheur à l’Institut Néel – 2015.

Rajoutons à cette citation que D-wave ne se laisse pas approcher, aucun expert ou chercheur indépendant ne peut aller regarder sous le capot du monstre, on parle vite dans les milieux scientifique de Turc mécanique ! (chose promise chose due !)

Allez je ne résiste pas à une petite digression, l’anecdote est croustillante :
Le Turc mécanique était un automate créé en en 1770 par Johann Wolfgang Von Kempelen qui pouvait jouer seul au échec ! (l’AI avant l’heure). Cet automate fit sensation partout dans le monde et il joua notamment contre Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin. En 1820 la supercherie fut démontée : un joueur était caché dans une trappe secrète cachée dans les rouages factices. Je ne saurais que vous conseiller de lire l’article Wikipedia l’histoire complète vaut le coup.

Revenons-en à D-wave, soupçonné donc de n’être qu’un super calculateur classique déguisé en calculateur quantique afin de générer des levers de fond.
Beaucoup de voix se sont élevées mettant en doute le projet, forçant Google à démontrer via des comparatifs le gain de vitesse sur certains cas, jusqu’en 2016 où ces derniers expliquent que le D-wave fonctionne sur un modèle de recuit simulé quantique.
Pour faire simple le D-wave  utiliserait des propriétés quantiques mais sans être ENTIÈREMENT quantique (pas de superposition d’état par exemple), pour ceux et celle qui veulent aller plus loin et essayer de comprendre (Spoiler : c’est ardu) c’est par ici

Le recuit simulé quantique n’est utile que pour quelques calculs très spécifiques qui prennent énormément de temps à des ordinateurs classiques tel que le problème du voyageur de commerce.
Le D-wave est un « optimisateur » selon les termes de Google, les Qubits annoncés ne sont pas réels ils illustrent juste la puissance de D-wave pour UN seul problème donné.

IBM quant à lui, a mis en 2016 son ordinateur quantique de 5 Qubits à disposition des internautes, espérant ainsi progresser grâce à la communauté mondiale sur la question notamment du développement de nouveaux algorithmes quantiques.
Le 7 mars 2017 IBM annonce vouloir commercialiser un ordinateur à 20 Qubits et vise déjà le 50 à horizon 2020.

Mais alors à quoi cela va-t-il servir ?

Pas pour le commun des mortels, c’est certain, mais cela permettra de répondre à des questions dans bon nombre de domaines !
Le premier domaine impacté sera la cryptographie : en effet la plupart de nos échanges de données sensibles sont cryptées par le protocole RSA qui est fondé sur la difficulté à factoriser de grands nombres.
Vos achats en E-commerce, les virements bancaires, les échanges sur les marchés boursiers, les archives des divers gouvernements, utilisent ce cryptage vital à notre société moderne.

Factoriser de grands nombres ai-je dit ? Mais n’est-ce pas là l’une des spécificités du premier algorithme inventé pour les ordinateurs quantiques ?
Si d’aventure une entité (Pays, organismes gouvernementaux, voir hacker) créait ou mettait la main sur un ordinateur quantique assez puissant, il pourrait dès lors décrypter n’importe quelle donnée RSA, en un clin d’œil, grâce à l’algorithme de Shor ce qui préoccupe d’ailleurs fortement la NSA.

Imaginez le scénario catastrophe, avec le premier pays qui possèdera cet avantage !
D’ailleurs la NSA ne fait pas que s’inquiéter : les documents publiés par Edward Snowden montrent que cette dernière travaille sur des projets d’informatique quantique, au sein d’un projet financé à hauteur de près de 80 millions de dollars : afin « infiltrer les cibles difficiles »

algorithme shor
Mais rassurons-nous, ce que le quantique va détricoter, il va de facto l’améliorer grâce au cryptage quantique ! le problème ne surgira donc que pour les pays retardataires.

Une autre utilité de l’informatique quantique pourra être de prédire de façon fiable la météo en calculant tous les scénarios possibles et donnant un résultat proche de 99%, imaginez les vies sauvées en prédisant le passage d’une tornade, d’une tempête ou d’un raz de marée des semaines à l’avance !

Continuons l’horizon des possibles avec notamment l’intelligence artificielle : vous n’auriez aucune chance de gagner aux échecs contre un ordinateur quantique vu qu’il calculerait tous les coups possibles en même temps ! L’avenir de l’IA passera sûrement par une couche de quantique qui pourrait lui apporter les émotions avec peut être à la clé cette singularité  tant crainte et espérée à la fois.

L’armée  sera le premier client de ce genre de système, imaginez un drone relié à un ordinateur quantique, ce dernier pourrait calculer tous les paramètres d’une mission, le positionnement des ennemis, un engin qui serait difficile à abattre car il prévoirait les coups à l’avance.

Pour résumer l’utilisation d’un ordinateur quantique sera extrêmement utile pour un nombre incalculable de domaines : la recherche, la physique quantique, l’intelligence artificielle et émotionnelle, les smart city, apporter des clés de compréhension sur les fondements de notre univers, le trading boursier, et par ricochet l’armement, la stratégie etc… voire même des domaines que nous ne soupçonnons même pas à l’heure où j’écris ces lignes.

Pour toutes ces raisons, le monde investit massivement dans cette technologie. Hors de portée il y a à peine 20 ans, nous assistons aujourd’hui à son éclosion.
J’espère que cet article vous a permis de comprendre l’importance de l’informatique quantique pour le futur de nos sociétés, et son fonctionnement général, sans trop vous donner la migraine J

Je terminerai en rendant hommage à Richard Feynman, génie trop peu connu de la physique quantique :

If you think you understand quantum mechanics… then you don’t understand quantum mechanics.

Voilà qui rassurera peut être certains lecteurs :)