Magazine des actualités et des tendances

ORDINATEUR QUANTIQUE

Le développement des ordinateurs quantiques a ses origines dans les années 80. C’est alors que les chercheurs ont commencé à entrevoir la possibilité de créer un super processeur capable d’exploiter les lois de la mécanique et de la physique quantique pour finalement dépasser les limites des soi-disant superordinateurs, ouvrant ainsi réellement les portes aux nouveaux horizons à l’Intelligence Artificielle.

À ce jour, des systèmes avancés basés sur quelques qubits (bits quantiques) ont déjà été créés, mais le véritable défi des scientifiques et des chercheurs est de créer des ordinateurs quantiques basés sur des milliers de qubits en quelques années. Seule cette condition permettrait un véritable «saut quantique » dans la qualité des calculs qu’un ordinateur peut effectuer. 

Nous parlons de systèmes contenant des qubits infinis (et non les bits utilisés par les ordinateurs que nous connaissons), capables d’effectuer des centaines de milliers de calculs par seconde.  Des études encore en cours permettent de savoir qu’il faudra au moins dix ans pour atteindre une maturité technologique permettant de fabriquer une telle machine. 

Google, IBM, Intel et Microsoft sont actuellement en concurrence, mais aussi certains centres spécialisés tel que Harvard et MIT (Massachusetts Institute of Technology), qui se heurtent à l’interférence de certaines études russes et chinoises. Récemment, l’Union européenne a enfin décidé d’investir dans la recherche, réservant un milliard d’euros pour les dix prochaines années.

Qu’est-ce qu’un ordinateur quantique et comment est-il fabriqué ?

Tous les ordinateurs que nous utilisons sont basés sur une logique binaire. Chaque unité (le bit) propose deux choix (0 et 1) et toutes les informations proposées (plus ou moins complexes) sont traitées avec une chaîne de valeurs composée de nombre 0 et 1. Ce n’est pas le cas avec l’ordinateur quantique, qui vise à exploiter les différentes propriétés de la physique et de la mécanique quantique, permettant au système de raisonner d’une manière profondément différente des précédents ordinateurs et donc non linéaire.

 Le bit, en fait, a été remplacé par le qubit, capable d’analyser n’importe quelle requête ou problème simultanément, au lieu de binaire. L’ordinateur quantique ne fonctionne donc pas en parallèle et sa vitesse ne dépend pas d’une simple question de puissance, mais est simplement liée à une toute nouvelle façon de traiter l’information. Si les ordinateurs actuels suivent les règles de la physique classique, ce n’est pas le cas des ordinateurs quantiques qui, grâce à la physique quantique, pourraient traiter des informations qui prendraient des milliers d’années avec les systèmes actuels. Ce n’est pas une technologie qui apportera des avantages dans tous les domaines, c’est pourquoi les ordinateurs traditionnels ne seront pas mis de côté. Néanmoins, cette nouvelle approche révèle d’énormes possibilités d’application et il y a déjà des secteurs dans lesquels le saut semble très intéressant. Il s’agit notamment de la chimie, de la physique, des produits pharmaceutiques et de la cryptographie. 

Pour l’instant, ces machines en sont encore à leurs balbutiements, notamment du point de vue matériel. Malgré les investissements consentis ces dernières années par de nombreuses entreprises opérant dans le secteur informatique, l’expérimentation se poursuit. La raison principale réside dans le manque de normes et, surtout, dans la rareté des spécialistes capables de les travailler, ce ne sont que quelques centaines dans le monde. 

Pour comprendre comment la science est arrivée à la réalisation des ordinateurs quantiques, il est nécessaire d’évoquer les lois de Moore et la miniaturisation des circuits : à partir des années 1960, il y a eu une amélioration progressive de la puissance de calcul des PC, une augmentation liée parallèlement à la miniaturisation parallèle et constante des circuits électroniques dont dérive également la célèbre loi de Moore.  Selon cette règle, la complexité des microcircuits, mesurée par le nombre de transistors présents dans une puce (le processeur) et la vitesse de calcul qui en résulte, double tous les 18 mois. Cependant, cette loi n’est aujourd’hui presque plus applicable et la raison principale réside dans l’atteinte des limites imposées par la mécanique, ce qui rend beaucoup plus difficile de poursuivre sur la voie de la miniaturisation. Cette limite, qui dans un certain sens a ouvert les portes à un changement de paradigme, basé sur la nécessité d’exploiter le potentiel de la mécanique et de la physique quantique, afin d’atteindre une puissance de calcul et une fluidité supérieures. 

ici, les bits ont été remplacés par des qubits, non codés par les symboles 1 et 0, mais liés à l’état quantique dans lequel se trouvent les particules ou les atomes utilisés. Ce dernier peut avoir une valeur de 1 et 0 simultanément entre autres dans une variété de combinaisons qui produisent des millions d’états quantiques différents. Une condition qui prend de vastes significations si l’on pense à la progression mathématique : 2 qubits peuvent avoir jusqu’à 4 états simultanément, 4 qubits correspondent à 16 états, 16 qubits à 256 états et ainsi de suite jusqu’à des quantités qu’aucun instrument électronique actuel n’est capable d’imaginer. Grâce à ces systèmes, les capacités de codage seraient tellement étendues qu’elles pourraient traiter des informations extrêmement complexes, telles que celles qui régissent l’intelligence artificielle.  

En un mot, un ordinateur quantique serait capable de traiter en même temps, en raison de ses capacités de calcul parallèle, différentes solutions pour un seul problème, plutôt que de simples calculs séquentiels comme cela se produit actuellement pour les PC traditionnels.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.