Accueil Nouvelles technologiesNouvelles Technologies Hebdos L’ordinateur quantique accélère !

L’ordinateur quantique accélère !

par Cécile Chevré
ordinateur quantique

Après la voiture autonome, après l’intelligence artificielle, après la 5G, c’est l’ordinateur quantique qui pourrait s’imposer plus rapidement que prévu. Ces derniers mois, les annonces se sont multipliées laissant entrevoir les premières applications pratiques de l’informatique quantique.

Vous l’aurez remarqué, à la Quotidienne, nous sommes d’infatigables traqueurs d’applications concrètes, voire commerciales. Pourquoi ? Parce que cela nous permet de compenser notre côté “rêveur”.

Les innovations technologiques ont tendance à nous faire planer mais celles qui s’imposeront vraiment – et celles qui méritent qu’on y investisse – sont celles qui aboutiront à des applications très concrètes.

C’est la raison pour laquelle nous nous intéressons enfin et en pratique à la blockchain. Après des années de promesses, cette technologie de registres infalsifiables et partagés est désormais entrée dans une phase commerciale. Des entreprises proposent des services reposant sur la blockchain. Carrefour a, par exemple, récemment annoncé la mise en place d’une blockchain Ethereum pour assurer la traçabilité d’une de ses filières de poulets.
[NDLR : 2018 va être l’année de la grande Collision Blockchain. Découvrez les 3 valeurs idéalement positionnées pour profiter de ce raz-de-marée technologique… et profitable : +7 520% de gains en ligne de mire. Elles vous attendent ici…]

L’ordinateur quantique pour répondre à l’explosion de nos besoins en calculs

Mais revenons à l’informatique quantique. Les applications concrètes ne sont peut-être pas encore totalement viables mais elles sont à portée de main.

Le système binaire a progressivement atteint ses limites, face à l’explosion des besoins en puissance de calcul.


Commençons par un rapide rappel de ce qu’est un ordinateur quantique. Pour faire vite, il permet de dépasser le fonctionnement binaire de nos ordinateurs, dans lesquels les informations, les bits, peuvent prendre deux valeurs, soit 0, soit 1.

Le système binaire sur lequel repose tout l’univers numérique a progressivement atteint ses limites, face à l’explosion des besoins en puissance de calcul.

Des solutions ont été trouvées, les puces et les micro-processeurs sont de plus en plus puissants. Les architectures dites parallèles, qui permettent à des processeurs de travailler justement en parallèle, ont fait leur apparition.

Mais malgré ces formidables progrès, notre puissance de calcul est limitée alors que se développent des applications – intelligence artificielle, deep learning, nouvelles réalités, big datas, cryptomonnaies, cryptage – particulièrement gourmandes en puissance de calcul.

D’où l’idée, pas récente, de passer au quantique. Dans l’univers de l’informatique quantique, le bit – qui alors devient qubit – peut superposer des 0 et 1, soit un état de superposition quantique dans lequel il peut endosser plusieurs valeurs. De quoi démultiplier notre puissance de calcul, du moins celle de nos ordinateurs.

Un ordinateur quantique équipé de 4 qubits va ainsi être 16 fois plus rapide qu’un ordinateur binaire à 4 bits. Et cette puissance de calcul va être doublée à chaque qubit supplémentaire…

A la recherche de la suprématie quantique

Les chercheurs visent la suprématie quantique. Celle-ci sera obtenue quand un ordinateur classique ne pourra plus soutenir la comparaison avec un ordinateur quantique en terme de capacité et de vitesse de calcul.

A fin 2017, on considérait que les meilleurs supercalculateurs pouvaient faire jeu égal avec un ordinateur quantique disposant de 50 qubits. Au-delà de cette limite, le quantique l’emporte.

Google, quant à lui, fixe la suprématie quantique à 49 qubits mais, et c’est important, avec un taux d’erreur inférieur à 0,5%. Nous allons revenir dans un instant sur ce taux.

Un des principaux problèmes auxquels sont confrontés les chercheurs est celui de la décohérence quantique.


Voilà pour la théorie. Vous vous en doutez, la pratique est un peu plus ardue. Si vous avez des souvenirs de cours de physique, vous savez déjà à quel point le quantique est, par essence, instable.

Un des principaux problèmes auxquels sont confrontés les chercheurs est celui de la décohérence quantique.

Là encore, pour vous résumer cela en quelques mots, la décohérence induit des taux d’erreurs qui risquent de rendre les puces quantiques peu fiables dans leurs calculs. Or plus on ajoute des qubits, plus la décohérence augmente. Pour ceux d’entre vous qui souhaiteraient aller un peu plus loin, je me permets de vous indiquer les articles que nous avons déjà consacrés à l’informatique quantique dans de précédentes Quotidiennes (ici, ou encore ).

La décohérence est une des raisons pour lesquelles nos progrès en informatique quantique ont été si laborieux. Parmi les autres contraintes : l’utilisation de supraconducteurs pour créer des puces compatibles avec la mécanique quantiques ou la nécessité de faire fonctionner les puces quantiques à des températures proches du zéro absolu (−273°C).

Cependant, comme je vous le disais en introduction, la recherche s’est accélérée, des annonces se sont succédées, la suprématie quantique ne semble plus inaccessible, et les premières applications concrètes se précisent enfin.

Accélération de la course au quantique

Intel a ainsi présenté en janvier dernier une puce quantique d’une capacité de 49 qubits – la limite actuelle de la suprématie quantique.

En partenariat avec l’université technologique de Delft et l’organisation néerlandaise de recherche appliquée, Intel a aussi développé un processeur quantique intégré dans une puce classique en silicium.

Une avancée particulièrement intéressante puisqu’elle permettrait de contourner le problème du zéro absolu. Elle ouvre aussi la voie à un ordinateur quantique grand public, puisque les puces silicium sont beaucoup plus faciles à fabriquer que les puces supraconductrices nécessaires aux autres architectures quantiques.

Prochaine étape visée par Intel, les 1 000 qubits.

Google a sorti en 2015 un processeur, appelé Bristlecone, qui ne comptait que 9 qubits mais s’avérait particulièrement fiable. Google était en effet parvenu, par des effets de vérifications redondantes, à réduire significativement le taux d’erreurs (entre 0,5% et 1%) induit par l’effet de décohérence.

Début mars dernier Google annonçait un bond en avant avec un processeur Bristlecone de 72 qubits. Reste encore à prouver que cette nouvelle génération est aussi fiable que son prédécesseur.

IBM, un autre mastodonte bien décidé à participer et à gagner cette course au quantique, a quant à lui annoncé, en novembre 2017, avoir atteint les 49 qubits sur une puce expérimentale. Big Blue a en outre mis en ligne et à disposition du grand public un premier processeur quantique, IBM Q Expérience, doté de 19 qubits. Mis sur le cloud fin 2017, il a déjà été testé par plus de 600 000 utilisateurs. Vous pouvez vous aussi faire vos propres expérimentations quantiques ici

Et les applications ? C’est ce que je vous propose de voir la semaine prochaine, dans la Quotidienne bien sûr !

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire