Accueil A la une Extension du domaine de l’IA à l’ordinateur quantique

Extension du domaine de l’IA à l’ordinateur quantique

par Etienne Henri
IA quantique

Le chercheur Francesco Tacchino et ces collègues ont réussi à réaliser un programme de machine learning quantique capable d’apprentissage et de classification.

Une fois n’est pas coutume, nous allons aujourd’hui évoquer conjointement deux thèmes fréquemment (mal)traités par la presse généraliste.

L’IA et l’ordinateur quantique, coqueluches des journalistes et des entreprises qui souhaitent faire rêver au sujet des nouvelles technologies, viennent de s’unir pour donner naissance à la première IA quantique.

Rassurez-vous, cher abonné, Opportunités Technos ne se met pas au sensationnalisme. N’y voyez-là aucune exagération : l’IA quantique existe désormais en laboratoire, et elle fonctionne.

Le chercheur Francesco Tacchino et ces collègues ont publié, il y a quelques jours, le résultat de leurs expérimentations. Ils ont réussi à réaliser un programme de machine learning quantique capable d’apprentissage et de classification.

L’effroyable gloutonnerie des réseaux de neurones

Les programmes d’intelligence artificielle fonctionnant sur des réseaux de neurones, qui représentent la majorité des algorithmes de machine learning utilisés aujourd’hui, ne sont pas une nouveauté. Ils ont été théorisés dès les années 1940 et les premières implémentations informatiques datent des années 1970.

Durant près de quatre décennies, ils sont restés une curiosité intellectuelle pour informaticiens. La raison ? Du fait de leur complexité exponentielle, ils nécessitent des puces informatiques surpuissantes. Puces qui n’existaient pas à l’époque.

L’exemple le plus frappant est celui du traitement simple d’une image. Si un ordinateur parvient à faire tourner une IA capable de classer une image de 100*100 pixels et que l’utilisateur veut doubler la taille de l’image (200*200 pixels), il ne faudra pas un, ni deux, mais quatre ordinateurs pour parvenir au même traitement… et tout ceci n’est valable que pour un traitement identique.

Aujourd’hui encore, les réseaux de neurones nécessitent toujours du matériel spécialisé pour être suffisamment rapides, et restent limités en termes de complexité.

Lorsque l’utilisateur veut demander plus de choses à une IA, même si la taille des données reste la même, la complexité de traitement augmente elle aussi de façon exponentielle.

Lorsque les phénomènes se cumulent, les effets deviennent colossaux : doubler simultanément la taille des données et la complexité de l’algorithme multiplie par 8 le besoin en puissance de calcul.

Si l’IA a pu obtenir ses lettres de noblesses malgré cette gloutonnerie de ressources, ce n’est que par la conjonction de deux facteurs inespérée dans les années 1970.

Le premier est celui de l’optimisation : les informaticiens ont énormément travaillé depuis 10 ans sur le tri des données. Avant d’être envoyées à l’algorithme, les données sont morcelées, filtrées, et décimées pour être les plus petites possibles. Ce n’est qu’à ce prix qu’il est possible de réaliser des réseaux de neurones suffisamment rapides pour être utiles.

La deuxième révolution qui a permis sa démocratisation réside dans le matériel. Les chercheurs ont découvert que les cartes graphiques qui équipent nos ordinateurs sont d’excellents supports pour faire tourner des IA. Avec les récents progrès en finesse de gravure, ces cartes graphiques ont connu une augmentation exponentielle de la puissance de calcul que l’IA a pu utiliser à bon escient.

Malgré la survenue de ces facteurs favorables, les réseaux de neurones nécessitent toujours du matériel spécialisé pour être suffisamment rapides, et restent limités en termes de complexité.

Une solution parfaite : l’ordinateur quantique

L’ordinateur quantique, de son côté, permet de faire des traitements de complexité exponentielle lors d’une augmentation linéaire de sa capacité. Autrement dit, et aussi contre-intuitif que cela puisse paraître, un ordinateur quantique disposant de 4 qubits est quatre fois plus puissant qu’une machine équivalente dotée de 2 qubits. Avec 8 qubits, la puissance est multipliée par 64.

Cette débauche de performance est la raison pour laquelle les ordinateurs quantiques sont considérés comme une menace pour les systèmes de cryptographie actuels dont la sécurité est basée sur la complexité des algorithmes de cassage des clés.

Francesco Tacchino et ses collègues ont travaillé sur une utilisation plus pacifique de cette puissance. Conscients que les besoins des IA sont exponentiels et que la puissance des ordinateurs quantiques l’est également, ils ont implémenté un algorithme de réseau de neurones sur un ordinateur quantique expérimental d’IBM.

traitement image ordinateur quantique

Le traitement d’une image de 4 pixels : un début prometteur ! Crédit : Tacchino et al.

L’IA quantique s’est avérée capable de distinguer une diagonale d’un trait horizontal ou vertical dans une image en noir et blanc de 2*2 pixels. Cela n’a peut-être l’air de rien à l’heure où les voitures autonomes traitent des millions d’octets de données par seconde, mais il faut savoir que cette nouvelle IA a traité une image de 4 pixels avec seulement 2 qubits !

Pour prouver les capacités de mise à l’échelle de leur IA quantique, les chercheurs l’ont également fait tourner sur un simulateur doté de 4 qubits. Elle a alors traité avec succès une image de 16 pixels comme le prédit la théorie.

La preuve est désormais faite que l’IA peut bénéficier des progrès des ordinateurs quantiques pour gagner en complexité.

Il ne reste plus qu’à attendre la démocratisation de ces machines, aujourd’hui cantonnées aux laboratoires de recherches et dotées d’une puissance de quelques qubits seulement.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire