L’informatique quantique et l’intelligence artificielle

L’informatique quantique et l’intelligence artificielle

A l’image de l’informatique quantique, l’intelligence artificielle a fait des progrès fulgurants ces dernières décennies. Encore récemment, ce domaine de l’informatique a montré de nouveaux résultats impressionnants, notamment avec Chat-GPT ou Midjourney. Que pourraient apporter les technologies quantiques à l’intelligence artificielle ? 



L’intelligence artificielle, en bref !

L’intelligence artificielle, souvent abrégée IA, est un domaine de l’informatique bien plus large qu’on peut le penser. Correction d’orthographe, calcul d’itinéraire ou encore recherche web pertinente, l’IA est aujourd’hui devenue un outil incontournable pour la majorité de nos accessoires électroniques. En pratique, un algorithme d’IA intègre des données objectives, appelées variables observables, et en déduit de nouvelles informations, appelées variables cachées.

 

Dans sans forme la plus basique, un algorithme d’IA est incapable d’apprendre. Il se contente de restituer un ensemble de variables cachées à partir de variables observables, et c’est tout. Par exemple, il saura dire qu’une image contient un objet rouge si il trouve des pixels rouges, mais cela s’arrête là. Aujourd’hui, les résultats majeurs de l’IA sont obtenus grâce au machine learning et ses dérivés. Les algorithmes de machine learning, souvent abrégé ML, sont des algorithmes ayant la capacité d’apprendre à partir d’un volume de données. En pratique, son fonctionnement est similaire à celui du cerveau : Un nourrisson entendant fréquemment « Maman » en présence de sa mère finira par associer les deux notions et prononcera ses premiers mots, et bien en machine learning, c’est pareil !


 

Les limites actuelles

Pour être efficace, un modèle de ML doit être entrainé sur un grand nombre de données afin de pouvoir, lorsqu’on lui présente de nouvelles variables observables, déduire les variables cachées qui lui sont associées. Ainsi, en théorie, avec suffisamment de données d’entrainement et de temps, un algorithme de ML serait capable de faire de près ou de loin tout ce que fait le cerveau humain. En pratique, les choses se compliquent !

 

L’entrainement d’un algorithme performant est un processus lent et couteux en ressources, qui a pour objectif de régler de manière optimale un ensemble de paramètres. Pour donner un ordre d’idée, l’entrainement de GPT-4, le tout nouveau modèle d’open IA, a nécessité l’optimisation de plus de 100 000 milliards de paramètres. De manière générale, l’apprentissage d’un modèle est un processus lent et couteux en ressources (informatiques et énergétiques)... N’y aurait-il donc pas un intérêt à utiliser l’informatique quantique ?

 


Le machine learning quantique

Comme mentionné dans mon précédent article, l’informatique quantique est un outil puissant, mais qui doit être utilisé de manière pertinente. A l’heure actuelle, le faible nombre de qubits disponibles sur les machines limite grandement le nombre de variables observables avec lesquelles on peut entrainer le modèle. De même, l’erreur inévitablement liée au calcul quantique ne permettrai pas d’obtenir des valeurs précises pour les paramètres du modèle. Au regard des performances actuelles des machines quantiques, recopier simplement un algorithme de ML avec une approche quantique ne serait pas très pertinent…

 

C’est pourquoi, aujourd’hui, la recherche en ML quantique se porte principalement sur des approches hybrides classique/quantique afin de tirer le meilleur parti des technologies quantiques, malgré leurs limitation actuelles. Dans ces approches hybrides, on exécute sur la machine quantique des taches spécifiques, réputées difficiles à calculer, et on laisse le reste à la machine classique.




Par exemple, pour la recherche de paramètres optimaux, une méthode couramment utilisée est la descente de gradient. Pour faire simple, il s’agit de trouver le minimum d’une fonction ayant pour variables les paramètres du modèle. Ce processus n’est pas nécessairement long à exécuter, mais il est répété un si grand nombre de fois que l’accélérer ne serait-ce qu’un petit peu permettrai de significativement diminuer le temps d’apprentissage des algorithmes.

 

En résumé, essayer de simplement recopier les méthodes classiques en quantique ne semble pas être très pertinent, dans l’état actuel des connaissances tout du moins. Mais le quantique n’a pas dit son dernier mot !


 

Les algorithmes quantiques variationnels

Plutôt que de simplement recopier sur son voisin classique, le quantique a ses propres idées, et sait déjà le mettre en application. Parmi ces approches inédites, on trouve les algorithmes variationnels quantiques, abrégés VQA !


L’idée derrière les VQAs est de partir d’un ensemble d’opérateurs quantiques (appelés pour rappel portes quantiques) formant un circuit. Là où en ML, on cherche simplement à déterminer les meilleurs paramètres pour un modèle assez généraliste, dans un VQA, on va en plus chercher à adapter le modèle au problème posé. Pour ce type d’algorithmes, l’idée n’est pas d’obtenir tout le temps les meilleures solution, mais de créer un modèle dans lequel on maximise la probabilité de les obtenir. Ainsi, en répétant le calcul au fil des mises à jour, on augmente nos chances d’obtenir une solution proche de la meilleure solution possible ! 




Dans la famille des VQA, on retrouve des algorithmes comme le QAOA, pour Quantum Approximate Optimization Algorithm. Dans cette approche, on part du principe que l’on connait très bien la formulation du problème à résoudre, mais qu’on a aucune idée de l’allure de la solution. Par exemple, on pourrait chercher la meilleure manière de traverser Paris en voiture et en heure de pointe. On connait l’ensemble du réseau routier, mais l’immense variété de trajets possible rend le choix du trajet optimal difficile !

 

Il y a également les VQE (à ne pas confondre avec VQA !), pour Variational Quantum Eigensolver. Dans ce cas, on a une bonne idée de la valeur de la solution, mais on ignore comment l’obtenir. Par exemple, en finance, un problème courant est la recherche d’un ensemble d’actions minimisant le risque et maximisant le profit. Si l’on fixe des valeurs limites pour ces deux critères, on a alors un grand nombre de combinaisons possibles permettant d’atteindre l’objectif, parmi lesquelles seulement quelques-unes sont optimales.

 

Pour ces deux approches, l’optimisation du modèle se fait via des opérations simples en informatique classique. On retrouve donc une approche hybride, mais cette fois ci, c’est le classique au service du quantique, et pas l’inverse !

 


Mais cela ne s’arrête pas là…

Dans ces quelques paragraphes, nous avons entrevu les premières pistes d’approches purement quantique, qui pourraient remplacer à moyen terme leurs analogues classiques, mais il ne s’agit pas là des seules méthodes propres à l’informatique quantique. A suivre dans quelques mois, un article présentant la technologie du recuit quantique, ayant certes quelques restriction, mais au potentiel très prometteur ! 






Sources :


  1. Intelligence Artificielle et Machine Learning ; https://www.le-cortex.com/media/articles/lintelligence-artificielle-comment-ca-marche 
  2. Exemple d’approche hybride classique-quantique pour du traitement d’image : https://arxiv.org/pdf/2109.02862.pdf 
  3. Les algorithmes quantiques variationnels, + en détails  ; https://arxiv.org/pdf/2012.09265.pdf
  4. QAOA ; https://qiskit.org/textbook/ch-applications/qaoa.html
  5. VQE ; https://towardsdatascience.com/the-variational-quantum-eigensolver-explained-adcbc9659c3a 


Commentaire ( 0 ) :

S'inscrire à notre newsletter

Nous publions du contenu régulièrement, restez à jour en vous abonnant à notre newsletter.