La « quantique » du futur

Donnés pour morts il y a peu, les ordinateurs font un retour surprenant au sein des foyers. Retour, ou simple continuité ? La tablette semble en effet ne pas avoir su les remplacer et c’est à leur tour de dangereusement décliner. Quel avenir pourtant pour une catégorie d’appareil qui n’a pas connu d’évolution en profondeur depuis son invention ? L’amélioration technique est une chose, mais elle n’est pas la révolution technique que veulent nous vendre les fabricants. L’émergence de nouvelles possibilités et de nouveaux programme semble cependant accélérer l’arrivée d’une informatique nouvelle basée sur la physique quantique.

En effet, les améliorations techniques dans le domaine informatique sont notables, mais elles arrivent à leurs limites, la course à la puissance et a l’autonomie ne pouvant aller beaucoup plus loin. Une alternative semble donc, plus que jamais, indispensable. Au-delà des simples ordinateurs, c’est la technique à la base de l’informatique qu’il est nécessaire de révolutionner. Aujourd’hui, la majeure partie de la puissance de calcul se situe dans des data centers aux quatre coins du monde, mais de la même manière on ne pourra pas indéfiniment les étendre et multiplier. Comment alors remplir les contraintes physiques et énergétiques qui se posent devant nous ? Beaucoup plus concrètement, comment les nouvelles formes de technologies qui apparaissent telle l’intelligence artificielle peuvent être mises en place ?

La réponse à ces questions semble résider dans l’informatique quantique. Tous les grands noms du Web se sont lancés dans ce domaine et la course à l’échalote quantique fait en ce moment même rage.

IA, nirvana de l’informatique ?

Tout d’abord, intéressons-nous au cas concret de l’intelligence artificielle. Vous connaissez Siri, Cortana ou encore Google Now/Google Assistant ? Vous avez déjà utilisé la fonction de reconnaissance de texte de Google traduction (essayez, c’est magique) ? Mais savez-vous que ces outils reposent sur une technologie d’intelligence artificielle (AI). En effet, grâce à d’immenses quantités de données que l’on fait passer par un programme « neuronal » de deep learning, c’est-à-dire qui imite le cerveau humain, on crée un apprentissage. L’ordinateur apprend ainsi à reconnaitre des images ou des paroles. Cela est aujourd’hui possible grâce à une conjecture d’éléments que rappelle David Rousset dans un billet de son blog :

L’AI est rendue possible grâce à l’association dans le programme de Deep Learning, de données et de puissance de calcul. L’équation résumant cela est la suivante :

Deep Learning (Data x Puissance de calcul) = AI

Mais, l’interface informatique classique devient trop limitée. Des optimisations sont possibles, notamment au niveau de la conception avec par exemple des puces plus flexibles dans leur fonctionnement qui permettent d’allouer de manière très dynamique les ressources des data centers. On peut aussi se reposer sur la loi de Moore. Celle-ci dit que l’on peut augmenter la puissance des CPU de manière fréquente, mais seulement jusqu’à un certain point. Or ce point est presque atteint. C’est ici qu’intervient l’informatique quantique.

L’IQ a la rescousse

Un ordinateur « conventionnel » fonctionne grâce à des interrupteurs. Certes, plus évolués que celui de votre salon, mais le principe est le même. Enclenché, ils valent 1, sinon 0. En combinant ces bits, on peut leur faire résoudre des opérations de type addition, soustraction, multiplication et division. Imaginez, pour reprendre la vidéo explicative ci-après, une petite armée d’enfants de sept ans qui résolvent pour vous des opérations simples. À l’heure actuelle, dans un PC ou un Mac moyen, on est de l’ordre d’une armée de 2,6 milliards d’enfants. Plus sérieusement, la miniaturisation de ces interrupteurs suit le principe de la loi de Moore. Or, ce dernier avait prévu que passé un certain point, la miniaturisation ne serait plus possible. Ce point, c’est celui à partir duquel on rentre dans le domaine de la physique quantique. Expliqué simplement, en temps normal, on sait expliquer le comportement de la matière. À très petite échelle, ça se complique et les scientifiques sont à vrai dire, à peine moins perdus que l’individu lambda.

Le problème est que les atomes ont à très très très petite échelle tendance à traverser la matière comme si de rien n’était. Les interrupteurs ne fonctionnent donc plus. Vient alors l’idée d’utiliser les propriétés quantiques pour créer une nouvelle forme d’informatique.

Sans rentrer dans les détails, un ordinateur quantique fonctionne avec des bits dont la valeur exacte n’est pas connue. Celle-ci se situe dans un état entre 1 et 0. Le but étant de deviner celui-ci car en contrôlant la valeur d’une particule quantique, on fixe celle-ci sur 1 ou 0. En laissant la possibilité, ce double état de la matière, on crée des bits pouvant avoir une double valeur, ainsi deux qbits peuvent avoir quatre valeurs en même temps (1-0;1-1;0-1;10-0) contre une pour le bit classique. Cela augmente ainsi de manière exponentielle la puissance de calcul d’un ordinateur.

L’avantage théorique de cette machine est que lorsque celle-ci cherche un résultat, au lieu de calculer chaque possibilité une à une, comme les machines conventionnelles, elle les calcule toutes en simultané. Le gain de temps est ici non négligeable !

Dans le cas de l’intelligence artificielle, on règle la donnée la plus problématique de l’équation mentionnée plus haut, qui est la puissance de calcul. Les applications possibles de cette technologie concernent en fait principalement le champ des recherches : grâce à cette extraordinaire puissance de calcul, les opérations d’analyse et de modélisation de cellules seraient accélérées voire simplement rendues possible. La compréhension du fonctionnement de virus par exemple serait facilitée, plus inquiétant, il serait aussi possible de décoder les algorithmes de cryptage, qui basés sur des nombres premiers, pourraient être calculés.

Un modèle de D Wave (c) D Wave

Le seul ordinateur quantique supposément fonctionnel (cela reste un sujet de débat), le D-Wave est limité dans son champ d’application. En effet, en raison de sa conception, il n’accepte que des requêtes où l’on va chercher une bonne solution parmi une infinité de possibilités. Celle-ci n’est pas garantie parfaite, seulement bonne. On a ici un parfait outil pour l’intelligence artificielle. Cependant, dans des recherches plus précises, il reste inutilisable. De plus, IBM et Microsoft ont récemment annoncé que sous cinq ans leurs solutions seraient prêtes. On a ici le paradoxe de ces projets qui bien que non aboutis sont déjà quasi commercialisés !

Data Center Google(c) Clubic

Bien qu’intéressant au niveau de ses possibilités, ce domaine pose de nombreuses questions du fait justement, des importantes possibilités qu’il présente :

Quelle éthique pour l’informatique ? Allons-nous assister à l’apparition d’un grand marché du Big Data ? Les propriétaires de grandes bases de données risquent de se voir propulser dans des positons d’extrême dominance du marché informatique, et dans l’état actuel des choses, de renforcer la suprématie américaine sur internet. En effet, on remarque que les quatre projets majeurs d’ordinateurs quantiques sont tous situés en Amérique du Nord, et trois d’entre eux aux États-Unis. De nouveau, l’Europe se fait distancer dans ce domaine. Cela ne signifie-t-il pas alors que la situation de dépendance informatique actuelle va s’accentuer encore un peu plus au profit d’un gouvernement qui ne se cache pas de chercher à accéder et exploiter les données confiées à ses entreprises nationales ? Même la Chine a tenté de répondre à cela avec la collaboration entre Alibaba et des universités pour combler son retard dans le domaine.

Que dire enfin des risques de piratage : avec l’informatique quantique, c’est l’ensemble des procédures de cryptage utilisées jusque-là qui tombe ! Un système entier de sécurisation est à repenser et déployer, or si l’échéance de cinq ans prévue pour l’utilisation « grand public » de ces techniques se révèle vraie, alors il est plus qu’urgent de s’atteler à cette tâche. En effet, à défaut d’encryptions, c’est un véritable far west numérique que l’on risque de créer, avec des risques allant du simple vol de compte twitter à la paralysie de pays entiers !

L’augmentation exponentielle de la valeur des données crée aussi le risque de voir des organisations de « recel de data » pointer. Les groupes de Hackers existent déjà, mais leur activité principale n’est pas nécessairement la constitution de bases de données géantes. L’avènement de l’Intelligence artificielle et ses besoins en données change la donne.

La grande arlésienne des droits des consommateurs digitaux doit aussi être évoquée : clarifier et rendre intelligibles les conditions d’utilisation des services informatiques devrait être au vu de ces éléments une priorité. Cela n’est cependant pas le cas. Alors en attendant une potentielle nouvelle ère de l’informatique, attendons, mais l’attente ne veut pas dire l’abandon, celle-ci doit nécessairement être vigilante, car ce futur n’est pas nécessairement utopique et pourrait se révéler au contraire être une réelle dystopie de dictature des données.

***

Pour en savoir plus, l’excellente vidéo de Kurzgesagt (sous titres en français disponibles) :

1 commentaire
  1. Intéressant…

    2-3 coquilles dans le texte :
    – Pluriel : “L’émergence de nouvelles possibilités et de nouveaux programme”
    – Après le pt-virgule, laisser un espace… Et à la fin c’est 0-0 je suppose “quatre valeurs en même temps (1-0;1-1;0-1;10-0)”
    – Pluriel : “modélisation de cellules seraient accélérées voire simplement rendues possible”

    Cordialement