Accueil > Pour en savoir plus > Sciences formelles > Numérique Informatique > "Face à l’inextricable problème des erreurs de calcul, va-t-on produire des (…)

"Face à l’inextricable problème des erreurs de calcul, va-t-on produire des ordinateurs quantiques fiables dès 2028 ? Quelle compatibilité entre IA et informatique quantique ? Des chercheurs chinois cassent le chiffrement…" par Jacques Hallard

dimanche 27 octobre 2024, par Hallard Jacques


ISIAS Quantique Informatique

Face à l’inextricable problème des erreurs de calcul, va-t-on produire des ordinateurs quantiques fiables dès 2028 ? Quelle compatibilité entre IA et informatique quantique ? Des chercheurs chinois cassent le chiffrement…

Jacques Hallard , Ingénieur CNAM, site ISIAS – 27/10/2024

https://undessinparjour.wordpress.com/wp-content/uploads/2014/01/bo140106.jpg?w=2609&h=

« Pour expliquer en gros, dans un ordinateur normal il n’y a que deux états, 0 et 1. Dans un ordinateur quantique, il y a un nombre infini d’états entre 0 et 1, et donc pas de réponse binaire ». Code Quantum - In dessin du 6 janvier 2014 at 13:55 – Source

Plan du document : Préambule Introduction Sommaire Auteur

Préambule

Conçu dans un but didactique, ce dossier constitue une sorte de mise à jour des connaissances sur un secteur émergent qui passionne certains, intrigue beaucoup et inquiète d’autres personnes ! On peut lire à la suite ou bien aller directement à l’introduction

L’informatique quantique – C’est le sous-domaine de l’informatique qui traite des calculateurs quantiques et des modèles de calcul associés. La notion s’oppose à celle d’informatique dite « classique » n’exploitant que des phénomènes décrits par la physique classique, notamment l’électricité ou la mécanique classique… - Wikipédia

Les bits classiques, unités fondamentales de données en informatique. Chaque bit peut exister dans l’un des deux états : 0 ou 1. Ils représentent respectivement l’absence ou la présence d’un signal électrique. Ces bits sont les briques élémentaires avec lesquelles sont construites toutes les opérations et les manipulations de données.

Les qubits, unités d’information quantique. Contrairement aux bits classiques, un qubit peut exister dans un état de superposition, représentant à la fois 0 et 1 simultanément grâce aux propriétés quantiques de la matière.

Les lois de Moore sont des lois empiriques qui ont trait à l’évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. La première de ces lois est émise par le docteur Gordon E. Moore en 1965, lorsque celui-ci postule sur une poursuite du doublement de la complexité des semi-conducteurs tous les ans à coût constant. Dix ans plus tard Moore ajusta sa prédiction à un doublement du nombre de transistors présents sur une puce de microprocesseur tous les deux ans. Ce second postulat se révéla particulièrement exact, et popularisa le terme de « loi de Moore », si bien que ce dernier a fini par s’étendre au doublement d’une capacité quelconque en un temps donné1… - Wikipédia

Qu’est-ce que le LHC ? - Le Grand collisionneur de hadrons (LHC) - Il se trouve au CERN, l’Organisation européenne pour la Recherche nucléaire, dans un tunnel situé à 100 mètres sous terre, de part et d’autre de la frontière franco-suisse, près de Genève (Suisse).

Particule de Majorana ou fermion de Majorana - En physique des particules, c’est un fermion qui est sa propre antiparticule. Ces particules sont nommées en hommage au physicien Ettore Majorana, qui a proposé ce modèle en établissant l’équation qui porte son nom… - Wikipédia – Autres sources sur ce sujet :

Vidéo 6:49 -A la recherche des antineutrinos de Majorana - YouTube · CEA - 10 déc. 2019

Rappel - Le spectre de Majorana –Des particules élémentaires aux quasi-particules de la physique des solides. Les particules élémentaires décrites par la mécanique quantique sont classées en deux grandes familles : les fermions et les bosons. Les fermions, tels que les électrons ou les quarks dont sont constitués les protons et les neutrons, constituent la matière, tandis que les bosons, tels que les photons de l’électromagnétisme ou les gluons de l’interaction forte, sont les médiateurs des interactions. Chaque particule fermionique est associée à son antiparticule avec laquelle elle peut s’annihiler. Ainsi, lorsqu’un électron et un positron entrent en collision, ils peuvent disparaître en produisant deux photons. Selon le modèle standard qui est le cadre théorique pour comprendre la plupart des propriétés de la matière, les antiparticules sont distinctes des particules ; elles ont par exemple des charges électriques posées. Ce n’est pas le cas pour les particules prédites par le physicien italien Majorana (fig. 1), depuis nommées « fermions de Majorana », qui sont leur propre antiparticule. L’absence de charge électrique est donc une condition nécessaire pour envisager qu’une particule élémentaire possède cette propriété. Des expériences sont en cours, par exemple dans le laboratoire souterrain de Modane, pour identifier si les neutrinos qui sont les seuls fermions élémentaires dont la charge électrique est nulle sont des fermions ordinaires ou de Majorana [2]. Leurs résultats auront des conséquences importantes en physique des particules, pour comprendre par exemple l’origine de la faible masse des neutrinos, ou en cosmologie pour expliquer la dissymétrie matière/antimatière de notre Univers…. Mais, à ce jour, la nature des neutrinos reste inconnue. La physique des solides offre un terrain alternatif pour la découverte non pas de particules élémentaires, mais de « quasi-particules » aux propriétés exotiques. En effet, la plupart des propriétés de la matière proviennent des électrons, qui sont des fermions…

Manuel Houzet(1) (manuel.houzet@cea.fr ), Julia Meyer(1) (julia.meyer@univ-grenoble-alpes.fr ) et Pascal Simon(2) (pascal.simon@u-psud.fr ).

(1) Laboratoire Photonique, Électronique et Ingénierie Quantique (PHELIQS), Université Grenoble Alpes et CEA, 17 rue des Martyrs, 38054 Grenoble Cedex 9

(2) Laboratoire de Physique des Solides, CNRS, Univ. Paris-Sud, Univ. Paris-Saclay, Bât. 510, 91405 Orsay Cedex

Pour paraphraser Karl Marx, « un spectre hante la physique : le spectre d’Ettore Majorana ». Près de 80 ans après sa disparition, les travaux du physicien italien continuent d’inspirer les chercheurs. Ainsi, dans son dernier article, Majorana prédit qu’une particule élémentaire dépourvue de charge électrique pourrait être sa propre antiparticule [1], en opposition avec la théorie de Dirac, pour laquelle une particule et son antiparticule sont distinctes.

Plusieurs groupes ont récemment annoncé la découverte de quasi-particules de Majorana dans des nanostructures supraconductrices. En plus d’être leur propre antiparticule, ces quasi-particules possèdent des propriétés exotiques qui sont d’un grand intérêt pour le développement d’un ordinateur quantique…

Le spectre de Majorana - Des quasi-particules exotiques découvertes dans des nanostructures supraconductrices pourraient servir à construire un ordinateur quantique – Extrait - Reflets de la physique - https://www.refletsdelaphysique.fr › refdp › 2019/01 - De M Houzet · 2019 – PDF 7 pages

Pour mémoire - Particule élémentaire - En physique des particules, une particule élémentaire, ou particule fondamentale, est une particule dont on ne connaît pas la composition : on ne sait pas si elle est constituée d’autres particules plus petites… - Wikipédia

VPN = Réseau privé virtuel - En informatique, un réseau privé virtuel1,2 (RPV) ou réseau virtuel privé2 (RVP), plus communément abrégé en VPN3 (de l’anglais : virtual private network), est un système permettant de créer un lien direct entre des ordinateurs distants, connectés à des réseaux locaux différents, qui isole leurs échanges du reste du trafic se déroulant sur des réseaux de télécommunication publics. On utilise notamment cette technologie en situation de télétravail ainsi que dans le cadre de l’informatique en nuage. Types - Le VPN peut être de type point à point, utilisé entre un client et un concentrateur4. Dans une autre acception, le VPN peut exister sous la forme d’un réseau privé virtuel hermétique et distribué sur un nuage MPLS5. Les ordinateurs sur ce VPN y sont souvent raccordés physiquement, la notion de « virtuel » se rapportant alors au fait que l’infrastructure MPLS fait circuler plusieurs réseaux virtuels étanches entre eux. De façon plus générale les VPN peuvent être classés selon les protocoles, services, et type de trafic (couche OSI 2 ou 3) pouvant circuler en son sein. VPN client / concentrateur - La connexion entre les ordinateurs est gérée de façon transparente par un logiciel de VPN, créant un tunnel entre eux. Les ordinateurs connectés au VPN sont ainsi sur le même réseau local (virtuel), ce qui permet de passer outre d’éventuelles restrictions sur le réseau (comme des pare-feux ou des proxys)…. - Wikipédia

Retour au début du Préambule

Retour au début du dossier


Introduction {{}}

Ce dossier propose un large panorama d’articles et d’informations actualisées sur le secteur émergent de l‘informatique quantique, en reprenant des avis exprimés :

  • sur des recherches scientifiques et expérimentations en cours,
  • sur des politiques et des financements de recherches publiques, d’autorités territoriales (comme des régions en France, telle que l’Occitanie), des groupes industriels et entrepreneuriaux, par des ‘start up’,
  • sur des prédictions d’avancées technologiques fiables dans un délai rapproché,
  • sur les conséquences possibles des techniques utilisées, bouleversant les pratiques connes et les outils informatiques installés actuellement, remettant en cause des savoir-faire professionnels acquis, exigeant des besoins nouveaux de formations, et des risques de déclassements socio-professionnels,
  • sur les compatibilités espérées de l’intelligence artificielle (IA) et avec la future informatique quantique émergente,
  • sur les enjeux de certaines mises au point qui pourraient remettre en cause les outils de cybersécurité actuels tel que le chiffrement (comme l’annoncent déjà des chercheurs chinois),
  • enfin sur des applications en matière de défense militaire dont les avancées actuelles seraient susceptibles de menacer jusqu’aux droits humains actuellement revendiqués ! – « La militarisation des technologies quantiques pourrait conduire à une nouvelle course aux armements, avec des conséquences désastreuses pour la stabilité internationale et la sécurité humaine » (Camille Coirault, 2024).
    Dans le même temps, des concepts et des technologies sont mises en œuvre et / ou questionnées, telles que :

* L’usage du Grand collisionneur des hadrons (LHC) qui est mis à l’épreuve pour l’observation de l’intrication quantique

* La remise en cause de loi de Moore  : selon Gordon E. Moore (1929- ) – l’un des cofondateurs avec Robert Noyce et Andrew Grove de Intel en 1968 – qui avait énoncé cette loi lors d’un congrès de 1965 en expliquant « que le nombre de transistors dans les processeurs devraient doubler tous les 2 ans, et cela éternellement ! » (Ecrit en 2017)…

* La pérennité des usages des VPN (réseaux privés virtuels), qui « établissent une connexion numérique entre un ordinateur et un serveur distant appartenant à un fournisseur VPN, créant un tunnel point à point qui crypte les données personnelles, masque les adresses IP et permet aux utilisateurs de contourner les blocages de sites Web et les pare-feu sur Internet », garantissant ainsi que les expériences et les informations mises en ligne soient bien privées, protégées et plus sécurisées…

Les articles sélectionnés pour ce dossier sont mentionnés avec leurs accès dans le sommaire ci-après

Retour au début de l’introduction

Retour au début du Préambule

Retour au début du dossier


Sommaire {{}}

Retour au début de l’introduction

Retour au début du Préambule

Retour au début du dossier

§§§


  • Rappels historiques des notions de base - Informatique en quête de quantique – Ordinateur quantique, pour demain ? – Documentation ixtel.fr’ – Par Jacques Baudron - jacques.baudron@ixtel.fr - juin 2017

    Depuis le début des années 1960 la loi de Moore appuie sa régulière ascension sur des gravures de plus en plus ténues dans le silicium. Las, que faire quand les gravures les plus fines s’essoufflent en se frottant aux confins de la physique ? La vingtaine de nanomètres aujourd’hui courante et les cinq visés pour demain nous rapprochent des défis pour la physique classique. Signe des temps : la première décennie de ce vingt-et-unième siècle a vu fleurir les machines multi-cœurs et la puissance continue à croître. La loi de Moore est en quête d’un saut technologique pour se perpétuer. L’Intelligence Artificielle forte en a fait un ‘prérequis’.

    Avec ses perspectives de calcul massivement parallèle, l’informatique quantique s’affiche en prétendant de choix. En a-t-elle les moyens ? Saura-t-elle répondre présent ? Penchons-nous d’abord sur l’étrange mécanique quantique puis regardons comment exploiter ce monde pour calculer.

Quantique : un autre monde{{}}

Horripilante physique quantique{{}}

D’un côté Elle est indéniable. En faisant abstraction de la gravitation, Elle explique tout. Ce qui nous entoure, la chimie, l’électronique, la stabilité des éléments elle-même … Impossible de La récuser. Pire encore, la précision de Ses prévisions dépasse l’entendement : la mesure du moment magnétique de l’électron et le calcul théorique sont en accord avec treize chiffres significatifs. Pas le choix, il faut faire avec. On est tenu de L’accepter.
D’un autre côté Elle nous oblige à avaler des couleuvres : une particule n’existe que quand on la regarde, deux particules ayant été en contact peuvent rester liées quel que soit leur éloignement. Elles sont non-séparables. Très très déstabilisant. Il nous faut oublier toute représentation mentale d’une particule, oublier toute notion de trajectoire, ne pas suivre nos intuitions et laisser notre bon sens loin de chez nous. Seules les mathématiques ont le droit de cité.
La mécanique quantique décrit la physique du tout petit à l’échelle de l’électron et en dessous. Le pas suivant sera l’unification des théories quantiques et gravitationnelles. Théorie des cordes ou gravitation quantique à boucles ? Les deux théories sont aujourd’hui en lice.
La mécanique quantique est tellement déconcertante que les efforts pour l’interpréter ont enfanté des théories où des univers se dédoublent, d’autres où la conscience de l’expérimentateur influe sur la mesure. Nous nous plaçons dans la suite de ce papier dans l’interprétation dite de Copenhague qui fait autorité de nos jours. Petit rappel (de mémoire) de l’avertissement de Richard Feynman : « Ce que je vais vous dire va vous paraître absurde, mais c’est la nature qui est absurde ».
Pénétrons l’absurde avant de préciser trois aspects structurants pour l’informatique quantique : la superposition, la décohérence et l’intrication.

Mécanique quantique{{}}

Albert Einstein a voyagé d’un bout à l’autre de l’échelle des tailles : relativité générale dont on perçoit les effets au niveau cosmologique et mécanique quantique qui s’adresse aux particules en deçà de l’atome.

DatesQuantiques
La lumière est un des premiers théâtres du quantique.

Onde ou particule ?{{}}

Alors, la lumière, onde ou particule ?
Onde c’est une évidence, les figures d’interférences ne laissent aucune place au doute. Mais, particule c’est une certitude, comment la lumière traverserait-elle le vide ?
Pour expliquer le transport d’une onde lumineuse dans le vide, on a bien tenté « l’éther luminifère », matière étrange aux propriétés contradictoires qui vibrerait avec la lumière à la manière de l’air transportant le son. Hélas, ni l’expérimentation ni la théorie n’ont pu conforter l’hypothèse qui sera laminée par Einstein.
Au XVIIème siècle, duel entre Isaac Newton, particule, et Christiaan Huygens, onde : Newton vainqueur. La notoriété du génie anglais qui avait dominé les planètes et leurs trajectoires eut raison du génie néerlandais. La particule ne souffrira nulle contestation durant le siècle des lumières.
Début XIXème, Thomas Young et Augustin Fresnel réhabilitent Huygens en faisant interférer des ondes lumineuses. Hors de portée de l’emprise de Newton parce qu’autodidacte, le britannique Michael Faraday innove en introduisant le concept nouveau mais riche de champ. Son compatriote James Maxwellenfonce le clou au cours de ce même siècle avec un jeu d’équations de propagation des ondes électromagnétiques. L’onde est là.
Puis en quelques années tout est bouleversé, ponctué par une avalanche de prix Nobel.
Nouveau génie, nouveau revirement tout début XXème. Le grand Albert est intrigué par la similitude entre le spectre des corps noirs et la distribution des vitesses des molécules dans un gaz : « on est conduit à se demander si les lois de la production et de la transformation de la lumière n’ont pas également la même structure que si la lumière était constituée de quanta d’énergie de ce type  ».

Einstein et le photon 2
Prémonition géniale : la lumière est particule. Il explique ainsi l’effet photo électrique en s’appuyant sur la toute nouvelle constante « h » issue des calculs menés par Max Planck sur le rayonnement du corps noir. Einstein cite en outre dans son article de 1905 (« Un point de vue heuristique concernant la production et la transformation de la lumière ») l’expérimentateur Philipp von Lenard qui avait constaté dès 1880 que la quantité de charges expulsées par un rayon lumineux dépend de sa couleur (sa fréquence, donc) et qu’une fréquence minimum est nécessaire. Après un début cordial, les relations entre Einstein et von Lenard se dégradent, le nationalisme de von Lenard s’accordant mal avec le pacifisme d’Einstein.
Oui mais … comment expliquer les si belles figures d’interférence indissociables des ondes ?
1924 : après une licence d’histoire, le français Louis de Broglie (prononçons « de Breuil ») obtient sa thèse de doctorat en sciences en étendant l’einsteinien concept de dualité onde-corpuscule de la lumière à tout corpuscule, ce que Davisson et Germer confirmeront trois ans plus tard lors des expériences de diffraction de l’électron par des cristaux. Après les électrons, les neutrons, les atomes et même les molécules offrent le spectacle de la diffraction.
Les ondes de Louis de Broglie sont mises non pas en musique mais en mathématique par deux approches indépendantes. Werner Heisenberg et Erwin Schrödinger partent de deux modèles différents dont le formalisme sera consolidé par Paul Dirac. Le pas est franchi, les mathématiques deviennent l’unique approche de la mécanique quantique.
Max Born ouvre alors une voie pour l’interprétation de la mécanique quantique en reliant la fonction d’onde avec la probabilité de présence : le carré de la fonction d’onde indique une densité de probabilité de présence en chaque point. Richard Feynman développera les outils pour exploiter ces fonctions.
Peut-être est-ce le poids grandissant des mathématiques dans la physique qui troublait Einstein : « ce qui est incompréhensible, c’est que le monde soit compréhensible ».
On constate qu’entre deux interactions, la position d’une particule n’est pas déterminée. L’indétermination structure l’état quantique de la matière. On ne sait pas où elle est physiquement car seule une représentation mathématique rend effectivement compte de son comportement. La dualité vient de particules dont la probabilité de présence est ondulatoire.
S’il est un domaine où il faut se méfier des images et des analogies, c’est bien celui de la mécanique quantique. Cela dit, une question stupide me revient régulièrement à l’esprit : si l’image d’un film me montre un personnage bras baissé puis la suivante le bras levé je vois quelqu’un qui lève la main. Et pourtant, qui me prouve qu’entre ces deux images le personnage ne s’est pas gratté la joue ou frotté les yeux ? Pourquoi n’aurait-il pas chassé une mouche ? Questions sans réponse et là aussi c’est indéterminé.

Indétermination
Impossible donc de statuer : onde ou corpuscule ? Les deux ? De quoi la matière est-elle le nom ?

• ONDULATOIRE pendant la phase quantique. Isolées, les particules sont sous le régime de l’indétermination et toutes les possibilités sont superposées. Mathématiquement une fonction dite fonction d’onde donne accès à leur probabilité d’occurrence. Cette fonction est ondulatoire.

• CORPUSCULAIRE lors de la phase classique. Les interactions avec d’autres particules réduisent l’éventail des possibilités pour aboutir à une certitude. La matière devient matière.
Les particules n’ont la forme que l’on perçoit au niveau macroscopique que lorsqu’elles sont observées, ou plus globalement qu’après interaction avec d’autres particules. En raccourci provocateur : une particule n’existe que quand on la regarde.
Examinons la dualité onde particule sous l’éclairage des expériences d’interférences.

Interférences{{}}

Cette expérience, réalisée en 1801 par Thomas Young met en évidence la nature ondulatoire de la lumière en faisant interférer deux rayons lumineux. Mais fait troublant, on obtiendra près de deux siècles plus tard le même résultat en envoyant non pas des ondes mais des particules une par une. Les particules interfèrent avec elles-mêmes.
La manipulation nécessite deux sources de lumière parfaitement similaires que l’on construit à partir d’une source lumineuse monochrome envoyée sur deux fentes.

Les deux faisceaux lumineux se combinent sur un écran disposé derrière ces fentes.
• Les longueurs des trajets et donc les temps mis par chacun des faisceaux diffèrent suivant le point d’impact sur l’écran, la position symétrique de la source faisant figure d’exception avec deux trajets de longueurs identiques.
• La somme des faisceaux en chacun des points dépend de la position relative des deux signaux. En phase ils vont doubler d’amplitude, en opposition ils vont s’annuler. Le résultat est une alternance de bandes claires et sombres.
Si on ferme l’une ou l’autre des fentes, les figures disparaissent. Nous avons là la signature d’une onde.
La situation devient totalement déstabilisante dès que l’on remplace le faisceau lumineux par des jets de particules envoyées les unes après les autres.
Notons qu’envoyer les photons un par un a longtemps relevé de l’expérience de pensée et que ce n’est que dans les années 1980 que le physicien français Philippe Grangier y est parvenu à Orsay.
De prime abord, la tentation est forte d’assimiler l’envoi de photons et celui de balles de tennis. On s’attend à voir deux fortes concentrations d’impacts au regard des fentes. Sauf que peu à peu les intrigantes figures d’interférence se dessinent, avec des bandes quasi vierges de tout impact et d’autres à forte concentration. Les figures disparaissent si on occulte une fente. Tout comme avec les faisceaux lumineux de Young en 1801. Bizarre, non ? Une particule (photon, électron, molécule) « sait » si il y a une ou deux fentes. Par abus, on entend souvent que la particule emprunte simultanément les deux chemins. L’image est à éviter car elle fait référence à la notion de trajectoire qui n’a pas de signification en physique quantique, indétermination oblige. Entre la source et l’écran il y a superposition des deux routes possibles.
Attardons-nous sur cette superposition qui nous sera tant utile pour les ordinateurs quantiques.

Superposition{{}}

La superposition décrit cet état défiant l’intuition entre deux mesures, observations ou plus largement interactions. On est alors dans l’incapacité de préciser les paramètres (spin, position, quantité de mouvement etc.) d’une particule. La cause n’est pas à chercher dans quelque faiblesse voire incertitude de nos méthodes d’observation : la particule n’est alors plus physiquement définie. Son état est indéterminé.
Abandonnons toute représentation physique de la particule pendant la superposition. Le plus « raisonnable » est de considérer que la particule n’a plus d’existence physique durant cette période et qu’il lui faut laisser la place à une représentation mathématique : un vecteur décrivant un champ dans un espace mathématique, l’espace de Hilbert. Chaque vecteur est lui-même somme de vecteurs représentant chacun les différentes possibilités des valeurs que peuvent prendre les paramètres (spin, position, quantité de mouvement etc.). Il permet de calculer les probabilités d’occurrence de chacun des états. Cette fonction mathématique est une onde qui s’étale dans tout l’espace, la fonction d’onde de Schrödinger. L’état d’un système quantique est mathématiquement décrit par une somme infinie de vecteurs dont le physicien Richard Feynman à l’origine de l’électrodynamique quantique a édifié les règles de calcul.
Lors de la superposition, toutes les possibilités sont empilées, mais attention : pas mélangées. Ce ne sont pas deux liquides qui se fondent en un seul. Si les valeurs « 7 » et « 9 » sont envisagées, ce n’est nullement pour prendre « 8 » comme résultat. On a une certaine probabilité d’obtenir « 7 », une autre d’obtenir « 9 ».

Schrodinger

Au cours de cette phase de superposition les expressions telles « un photon passe par les deux fentes » ou « le chat est à la fois mort et vivant » n’ont de fait pas de signification puisque trajectoires comme états sont indéterminés. Il est d‘ailleurs préférable de parler d’indétermination plutôt que d’incertitude, ce dernier terme pouvant évoquer à tort un problème de méthode de mesure. Heisenberg a utilisé « incertitude » dans un tout premier temps puis s’est ravisé avec « indétermination ». Trop tard : les traductions françaises avaient déjà gravé l’incertitude dans le marbre. Mais rassurez-vous, après moult débats les plus grands physiciens n’ont pas réellement convergé une terminologie unique.

Feynman

La méthode de calcul du génial professeur Feynman permet de déterminer la probabilité d’avoir un impact en chaque point sur l’écran en fonction des deux routes possibles. La valeur de cette probabilité suit une courbe sinusoïdale qui est précisément celle de l’onde observée par Thomas Young. Voilà une forme de réponse à la question onde ou particule : la lumière est une particule dont la probabilité de présence épouse une onde.
Allons plus loin sur ce parcours quantique vertigineux : le calcul est d’autant plus précis que la fonction d’onde incorpore l’intégralité des chemins possibles. Pour trouver les treize chiffres significatifs du moment magnétique de l’électron, il a fallu envisager des chemins … qui remontent le temps ! Tous ces mécanismes sont décrits avec humour et clarté dans « Lumière et matière » de Richard Feynman. Si vous ne voulez lire qu’un seul livre sur la mécanique quantique, c’est lui qu’il faut choisir.
La phase quantique est cet état d’indétermination où toutes les possibilités sont superposées. Les calculateurs quantiques s’appuient sur la superposition pour manier en un seul calcul toutes les valeurs que peut prendre une variable.

Décohérence{{}}

Le passage de la superposition à l’état macroscopique relève du même registre un peu fou. Dès qu’il y a interaction, typiquement lors d’une mesure, la particule rejoint notre monde classique et prend aléatoirement une valeur parmi celles proposées dans la fonction d’onde. L’histoire de la particule auparavant est alors totalement perdue. La situation est la suivante : une particule « n’existe » que quand on la mesure, ou plus largement quand il y a interaction. Vertigineux.

Chat de Schrodinger

Pour souligner avec humour l’absurdité de la chose, Erwin Schrödinger a mis en scène un chat dans sa fameuse expérience de pensée. Le but est d’appliquer le comportement d’une particule superposée à un être macroscopique pour tenter de montrer la non complétude de la mécanique quantique. Le sort du chat (mort ou vivant) dépend d’une particule en superposition de deux états dont l’un déclenche un mécanisme fatal pour le chat car constitué d’un marteau qui brise une fiole de gaz mortel. Schrödinger expose une situation burlesque où la superposition en deux états indéterminés s’applique au chat pour une superposition mort / vivant.
Le message de Schrödinger est là pour souligner qu’à son sens la mécanique quantique n’est pas complète et ne représente pas totalement la réalité, point de vue soutenu également par Einstein. Mais son trait d’humour est depuis des décennies traité avec sérieux et gravité. « Quand j’entends ‘Chat de Schrödinger’, je sors mon revolver » nous prévient Stephen Hawking dans son approche positiviste pour qui il est vain de tenter de décrire la réalité depuis les équations quantiques, leur seul but étant la prédiction des résultats. La fonction d’onde décrit non pas la réalité mais la connaissance que nous en avons. L’état mort/vivant du chat n’a pas de réalité et ne peut être l’objet de discussion.

Du quantique au classique

La théorie de la décohérence nie également la possibilité de poursuivre la superposition à l’état macroscopique. La superposition d’états ne peut exister puisque les interactions inéluctables avec les particules d’un objet macroscopique nous conduisent immédiatement à un état classique. La théorie, soutenue par des personnalités comme le prix Nobel Murray Gell-Mann est considérée comme la plus complète à ce jour pour expliquer la transition quantique / classique. Serge Haroche a reçu son prix Nobel en 2012 pour les mesures réalisées sur les temps de décohérence.

Everett

Pour Hugh Everett, il se crée autant d’univers qu’il y a d’états superposés. Pour Eugène Wigner c’est la conscience qui dicte l’état dans lequel se stabilise la particule. D’autres interprétations existent mais les physiciens pragmatiques tiennent le choc en considérant que la mécanique quantique ne concerne que les particules prises individuellement et ignore les chats macroscopiques.
Notons qu’à mon sens le calcul tel qu’il est appliqué par Richard Feynman donne une réponse immédiate à la question du passage de l’état de superposition à l’état classique (réduction du paquet d’onde) : le calcul nous donne une probabilité de présence en fonction de tous les chemins possibles. Lorsque le nombre de chemins possibles diminue, la probabilité d’occurrence de chacun augmente. Quand enfin les interactions sont si nombreuses qu’elles ne laissent qu’un seul chemin possible la probabilité devient une certitude. Le monde classique n’est autre que le monde quantique avec une probabilité de « 1 ». C’est le cas avec les objets macroscopiques et nous retrouvons là la théorie de la décohérence. Là encore, bravo Monsieur Feynman.
Le vocabulaire consacre l’expression « réduction du paquet d’onde » quand on ne considère qu’une particule et l’expression « décohérence » quand on s’adresse à un objet macroscopique. La décohérence est la difficulté majeure des ordinateurs quantiques.
Pour faire court
• La décohérence est la transition entre le monde de l’indétermination et le monde classique macroscopique due aux multiples interactions entre les multiples particules.
• Seule une valeur de paramètre (spin, position, quantité de mouvement etc.) est retenue au hasard parmi celles superposées dans la fonction d’onde.
Accrochez-vous, nous ne sommes pas au bout de l’absurde et plongeons dans l’intrication en introduisant une deuxième particule dans nos considérations.

Intrication{{}}

Les particules partagent des paramètres communs dès qu’elles interagissent. C’est l’intrication. Le spin par exemple peut prendre deux valeurs complémentaires, +1 et -1. Quand deux particules interagissent elles vont partager ces deux valeurs. Elles unies sous le régime de la non-séparabilité. L’indétermination s’applique au couple intriqué et avant mesure la valeur de chacun n’est pas décidée. Les deux états sont superposés. L’affectation des valeurs +1 et -1 pour chacune des deux particules se fera au hasard lors d’une mesure de l’une des deux. L’autre prendra immédiatement la valeur complémentaire, et ce quelle que soit la distance les séparant. Notons que ces deux propriétés, aléa et non-séparabilité, siéent pleinement à la cryptographie symétrique.
Cette couleuvre a fait déborder le vase du Grand Albert, le pilier des deux révolutions – relativité et mécanique quantique - du vingtième siècle. Il n’a jamais pu admettre que le hasard se mêlât de la physique. Lancer une pièce à pile ou face donne un résultat aléatoire, mais si les conditions initiales sont connues avec précision alors le résultat devient prédictible. Pour Einstein, la mécanique quantique ne peut déroger à la règle, au rebours des affirmations du physicien Niels Bohr. Un spin ne se décide pas au hasard. Il existe quelque part des variables cachées car « Dieu ne joue pas aux dés ». Notons qu’Einstein ne remettait absolument pas en cause la mécanique quantique. Il en était un pilier majeur. Le seul point qui le dérangeait était cette intrusion du hasard. Les particules sont de connivence grâce à des variables cachées. Pour de Broglie, Bohm ou Bell la position de la particule serait un bon candidat pour ce type de variable.

EPR

Albert Einstein, Boris Podolsky et Nathan Rosen imaginent en 1935 une expérience de pensée, le paradoxe EPR. Peut-on considérer que la physique quantique est complète sans les variables cachées ? Ce court papier, quatre pages, est un de ceux qui est le plus souvent cité en référence alors que curieusement il n’en contenait pas lui-même. Pour montrer que le hasard ne peut décider d’un paramètre, EPR considère deux particules intriquées. L’une aura un spin +1 et l’autre -1. Si hasard il y a, la mesure de l’une devra immédiatement se répercuter sur l’autre. L’éloignement des deux particules intriquées étant arbitraire, on peut aboutir à une vitesse de transport de l’information qui outrepasserait la vitesse de la lumière. Einstein est le mieux placé pour affirmer que ça ne se fait pas. Les deux particules doivent s’être mises d’accord au préalable à l’aide de variables aujourd’hui cachées. Face à la clarté de l’argumentation EPR, la réponse de Bohr apparait beaucoup plus délicate à appréhender.

DocumentEPR
La suite infirmera EPR, l’expérience de pensée sera contredite par l’expérience réelle.
En 1964, le physicien irlandais John Stewart Bell traduit à partir de la théorie des ensembles l’expérience de pensée d’EPR en une inégalité mathématique. Si cette inégalité est violée alors il y a action instantanée à distance quelle que soit la distance.

Bell

Pour Bell, c’était le moyen pour prouver qu’Einstein avait raison, qu’il n’y avait pas d’action à distance et qu’il fallait continuer les recherches pour débusquer des variables (position ?) cachées. L’inéquation a ouvert la porte aux expérimentations pour statuer sur la question fondamentale : est-ce que la valeur d’un paramètre (spin, position, quantité de mouvement etc.) est choisie au hasard lors de la mesure ou préexiste ? Quand un radar vous indique que vous roulez à 132 km/h on peut raisonnablement penser que vous étiez déjà à cette même vitesse l’instant d’avant. Une particule mesurée à 1000 km/s était-elle à cette vitesse juste avant la mesure ou cette vitesse était-elle non déterminée ?
On doit au français Alain Aspect la fructueuse mise en œuvre pratique de ces expériences en 1982 dans les laboratoires d’optique d’Orsay.

Alain Aspect

La conclusion est implacable : Einstein, Podolsky et Rosen se sont trompés. Il n’y a pas de variables cachées. Ou alors elles sont globales. C’est bel et bien lors de la mesure que se détermine la valeur des paramètres. Dieu joue aux dés, et la mécanique quantique se joue de l’espace.
Désarçonné, Bell en bon disciple d’Einstein a entamé des recherches sur la base d’une sorte d’ether avec un temps absolu. Hélas ce génie est parti trop tôt pour aboutir à un résultat. Trop tôt également pour recevoir le prix Nobel. Ne tardons pas trop pour l’attribuer au toujours jeune Alain Aspect : il a quand même trouvé la réponse à la question soulevée par Einstein !
Notons qu’en 2006 d’autres expériences conduites elles aussi en France laissent à penser que la mécanique quantique se joue également du temps. Dans quel monde ne vivons-nous pas …
Cela dit et à mon sens, les notions d’intrication ou de non-séparabilité ne sont pas si choquantes dans une théorie bâtie sur des champs, tels que l’union entre la mécanique quantique et la relativité restreinte nous l’impose.
Résumons l’intrication.
• Deux particules sont intriquées lorsqu’après avoir interagi elles partagent un (ou plus) paramètre commun. Il y a non-séparabilité.
• Ce paramètre est indéterminé jusqu’à ce qu’il y ait « mesure » sur une des deux particules et ce quelle que soit la distance entre les deux particules.
• Transmission à distance et valeurs aléatoires sont des atouts pour la cryptologie.
Munis de ces éléments nous pouvons aborder l’informatique quantique.

Informatique quantique{{}}

L’ordinateur quantique est annoncé comme une technologie à même d’assurer la continuité de la loi de Moore, avec l’Intelligence Artificielle en ligne de mire. On annonce de grandes avancées pour cette année 2017. Depuis plus de dix ans les circuits silicium des ordinateurs classiques se frottent aux frontières du trop petit et les puces multicœurs pallient l’impossible poursuite de la miniaturisation des gravures. Le quantique sera-t-il le relai ?
Donnons tout de suite la réponse, c’est non. La technologie n’est pas au rendez-vous. Non que la faisabilité soit en cause : la physique l’autorise, ça devrait le faire tôt ou tard. Mais le savoir-faire technologique dans ce monde étrange ne fait que balbutier et la perspective de la maîtrise des algorithmes les plus complexes (problème NP-complets) n’est pas encore acquise. Il y a du boulot tant sur les aspects matériel qu’algorithmique.
Sémantiquement, l’appellation « ordinateur quantique » elle-même porte à discussion. Faire tourner un programme spécifique sur une machine générique est l’essence même des ordinateurs classiques ; les ordinateurs quantiques d’aujourd’hui sont des calculateurs spécifiques nantis de portes logiques pour intégrer un algorithme dédié. La programmation n’est pas à l’ordre du jour et le terme calculateur quantique est plus approprié que celui d’ordinateur quantique. Cela dit, nous utiliserons indifféremment les deux termes dans la suite de ce papier.
Quant aux performances alléchantes, elles sont attendues mais un avantage clair face aux ordinateurs classiques reste à confirmer. Les affirmations parues dans la presse sur la suprématie quantique faussent un peu la question en requérant des ordinateurs classiques une démarche identique à celle des calculateurs quantiques. Ainsi, demander à un ordinateur classique de multiplier n x p en pratiquant p additions du nombre n comme en mécanique quantique n’a pas grande signification. Les victoires annoncées aujourd’hui de la mécanique quantique portent sur des problèmes que l’informatique classique résout plus rapidement avec ses méthodes.
La cryptanalyse est doublement intéressée par le monde quantique : d’une part les calculateurs pourraient venir à bout des factorisations et d’autre part la superposition alliée à intrication offrent à la fois vrai aléatoire et transmission confidentielle de clef pour le chiffrement symétrique. Ce dernier point ne relève pas des ordinateurs quantiques mais de l’utilisation des caractéristiques du monde quantique.
En parallélisant massivement les calculs, le modèle théorique des ordinateurs quantiques rend linéaires des problèmes qui étaient exponentiels dans l’informatique classique. Le gain en puissance promet d’être substantiel. Mais quel est calendrier pour le passage à la pratique ? Arriverons-nous à étendre les lois du microscopique à un monde bien proche du macroscopique ?
Penchons-nous pour commencer sur la mécanique de ces calculateurs.

Calculons quantique{{}}

Les travaux du physicien Paul Benioff de l’Argonne National Labs en 1981 mettent le pied sur le terrain de l’ordinateur quantique en imaginant un ordinateur classique qui exploiterait certains phénomènes quantiques.

Feynman

Le grand physicien Richard Feynman, père de l’électrodynamique quantique se heurtait en 1982 à la résolution d’équations de fonctions d’onde des particules pour laquelle l’intégrale des chemins possibles pour aller d’un point à l’autre doit être analysée. La complexité n’a pas de limite : il faut tenir compte des trajectoires remontant le temps pour gagner quelques décimales ! L’ordinateur est incontournable dans ces recherches mais avec des limites trop tôt atteintes. Fin connaisseur du principe de superposition de la mécanique quantique, Richard Feynman a bien vite saisi le parti à en tirer pour bénéficier d’un parallélisme massif. « Au lieu de nous plaindre que la simulation des phénomènes quantiques demande des puissances énormes à nos ordinateurs actuels, utilisons la puissance de calcul des phénomènes quantiques pour faire plus puissant que nos ordinateurs actuels ». C’est pour des besoins en simulation de physique quantique qu’a émergé le concept d’ordinateur quantique.
Avancée notable, David Deutsch de l’Université d’Oxford publie en 1984 un papier sur l’architecture d’un ordinateur ne reposant que sur les règles de la mécanique quantique. Les bases sont jetées, l’ordinateur quantique est possible.

Shor

L’engouement décisif – comprendre l’intérêt et les moyens financiers - sera lancé par le mathématicien Peter Shor en 1994 avec un algorithme pour ordinateur quantique capable de s’attaquer à la factorisation de grands nombres. Menace de poids pour la cryptographie ! Depuis industrie, universités, grands laboratoires et autres Gafam’s parcourent à grand pas décidés l’univers de l’indétermination. Ça tâtonne : les résultats sont là et ne sont pas là, comme un hommage au chat mort et vivant.
Bon cela étant posé, il y a de quoi être intrigué (intriqué ?) : comment peut-on prétendre construire un ordinateur à partir d’un processus dont les réponses sont le fruit du hasard ? Plongeons dans cette informatique qui impose des raisonnements qui n’ont rien à voir avec ceux auxquels on est familier, bannissons nos intuitions. Disruptons.

Quantique et ordinateur{{}}

Le principe de superposition sur lequel est construite la mécanique quantique précise qu’entre deux interactions une particule quitte son statut « classique » pour entrer dans le domaine quantique des ondes de probabilité. Elle ne retrouve le statut « classique » que lors d’une nouvelle interaction. En quelque sorte, une particule « n’existe » que quand on l’observe. En prenant l’exemple du déplacement d’un photon, on peut préciser le lieu de départ, celui de l’arrivée mais point de trajectoire entre les deux.
Toutes les routes imaginables sont prises en compte dans une fonction mathématique nommée fonction d’onde. Cette fonction ondulatoire permet de déterminer la probabilité de présence en tout point. Mais attention : on ne fait pas la moyenne de ces possibilités comme on pourrait mélanger des liquides mais on superpose toutes les possibilités. Au moment de la lecture une seule possibilité est retenue parmi toutes. Au hasard. Les autres sont oubliées. Le résultat qui nous intéresse est noyé parmi tous les résultats. Superposés. Avec de nouveau le hasard pour la lecture. Donc … que faire d’un résultat aléatoire ?

Aléa quantique

Notons que toutes les possibilités « listées » dans la fonction d’onde ne bénéficient pas de la même fortune. Le calcul quantique joue sur des pondérations pour favoriser les « bons » résultats par une probabilité plus élevée.
D’une manière générale on n’a pas le choix, il faut faire avec l’aléatoire. Dieu joue aux dés. Dans la recherche des facteurs premiers d’un grand nombre par exemple, on n’est pas sûr que la valeur obtenue soit correcte. C’est probable mais le résultat n’est validé qu’après avoir été effectivement vérifié avec ledit grand nombre sur une machine classique. Si ce n’est pas le cas on réitère le calcul jusqu’au tirage du bon résultat. On n’a en effet pas de deuxième chance en piochant de nouveau dans les états superposés car ils ont été détruits par la lecture, effondrement de la fonction d’onde oblige.
Les chemins du calcul quantique sont fidèles à l’étrangeté du monde quantique et tellement en opposition avec nos approches familières en informatique classique.

Qubit{{}}

La coutume a légué à nos civilisation la base dix, héritage du dénombrement sur le bout de nos doigts. L’ordinateur classique utilise la base deux, le courant passe ou pas. Le bit informatique prend les valeurs « 0 » ou « 1 », et en juxtaposant quatre bits dans un registre on peut représenter un nombre compris entre zéro et quinze.
Dans le monde quantique, on utilise également un système à deux états grâce à des propriétés physiques comme le spin par exemple, tout comme dans un ordinateur classique. Sauf que le monde quantique vient avec sa part d’étrangeté : le qubit, ainsi nommet-on le bit quantique, peut prendre à la fois les valeurs zéro et un. C’est la magie du principe de superposition.
Un exemple classique illustre le bénéfice de la superposition par la mise en scène un joueur indélicat au jeu de pile ou face : il utilise des pièces truquées avec la même figure des deux côtés.
En mécanique classique, il faut faire deux lectures pour s’assurer que la pièce est non truquée, alors que la superposition quantique nous renseigne en une passe unique. Le gain est de deux. Avec quatre qubits, on obtient tout comme en informatique classique seize valeurs sauf qu’ici on manipule simultanément tous les nombres compris entre zéro et quinze. Bizarre, non ? Mais surtout très puissant car avec cent qubits on peut faire un calcul sur deux puissance cent valeurs en une seule passe. C’est massivement parallèle.

Calcul massivement parallèle
Tempérons néanmoins notre enthousiasme : le parallélisme utilisé n’est pas celui de l’informatique classique où le travail est découpé et réparti judicieusement entre des machines qui exécutent chacune une tâche spécifique et délivrent chacune un résultat dédié. Les calculateurs quantiques n’appliquent qu’un seul et même traitement à toutes les variables et n’obtiennent qu’un résultat unique pour tous.
Les calculs massivement parallèles, aujourd’hui identifiés comme domaine de prédilection de l’informatique quantique, font appel à un mode de fonctionnement sans grand rapport avec notre monde classique. Performances comme domaines d’application restent à être évalués.

Qu’est devenu le « Copier/Coller » ?{{}}

Notons une conséquence majeure du principe de lecture : l’adieu à la fonction « Copier ». En 1982, Wootters, Zurek, et Dieks énoncent le théorème de non-clonage quantique.

Fin du copier
Une variable quantique est un état de superposition de toutes les valeurs possibles. À la moindre lecture, seule une valeur est retenue, les autres sont oubliées. Ce qui réduit à néant tout espoir de faire un « Copier » d’une variable. Il n’y a pas de clonage possible. On ne peut pas affecter à la variable « b » la valeur de la variable « a ». La variable « a » serait immédiatement réduite à une valeur unique piochée au hasard dans toutes celles proposées par la superposition. De nouveau, le calcul quantique est aussi déroutant que la mécanique du même nom, là encore les algorithmes quantiques sont spécifiques. On ne peut pas « porter » une application classique. Excel pour QuanticOS n’est pas encore d’actualité. Ah oui, il y a encore du boulot.

Cela dit, si le quantique exclut le « copier » il autorise une variante de « coller » sous la forme d’une reconstruction du même état du qubit à distance. C’est la téléportation aux riches applications en perspective, à commencer par la régénération d’un signal.

Décohérence{{}}

Nous touchons là le grand défi de l’ordinateur quantique qui est de maîtriser le passage intempestif de l’état quantique à l’état classique.
Dans le monde quantique, on fait des sauts de puce entre les mesures, lectures ou plus globalement entre les interactions. Entre deux interactions on est dans cet état magique de superposition où le calculateur calcule. A chaque interaction on efface la superposition pour ne garder qu’une valeur. Le passage de la superposition quantique à la structure classique est la décohérence.
L’opération est volontaire lors de la lecture ou accidentelle lorsqu’elle est provoquée par des perturbations comme des vibrations ou de la lumière. Le physicien français Serge Haroche a reçu le prix Nobel 2012 pour ses travaux sur la décohérence du photon grâce à des pièges à photons construits avec des miroirs. La décohérence survient en un temps inversement proportionnel au nombre de particules.
L’enjeu est de rester quantique un temps suffisamment long pour avoir le temps de calculer. Les particules doivent être à l’abri de toute perturbation, d’où des températures de fonctionnement très très basses. Pas loin du zéro absolu, cet état où tout mouvement est arrêté. Isolation maximum certes, mais il faut quand même cohabiter avec d’autres qubits et franchir des portes logiques. Le « passage à l’échelle » est particulièrement délicat. On sait de nos jours manipuler des registres d’une (grosse ?) dizaine de qubits, mais guère plus.
Ingénieurs et savants ne sont pas restés les deux pieds dans le même qubit et ont élaboré un mécanisme de calcul d’erreur qui devrait repousser les limites. La décohérence se traduit par des erreurs de transmission. Les télécoms confrontées à ce même obstacle ont depuis longtemps su user des mathématiques pour maîtriser le haut-débit. Le savoir-faire en calcul et correction d’erreurs a été mis à profit ; les résultats sont spectaculaires. Le problème est que pour protéger un qubit, on a besoin de plusieurs qubits. Qu’il faut protéger, cela va de soit. La science est trop récente pour chiffrer de manière fiable ce surplus mais comptez dix à quinze qubits redondants par qubit utile dans le contexte de registres d’une dizaine de qubits utiles. Le point est d’autant plus critique que ces calculs d’erreurs ne peuvent aboutir que si au départ le taux d’erreur est suffisamment faible, condition s’accommodant mal de l’augmentation du nombre de qubits. La factorisation par exemple est d’une exigence redoutable sous peine d’une dérive rapide. Qu’en sera-t-il avec des mots d’une centaine de qubits ? Saura-t-on gérer des particules en état de superposition par milliers ? J’insiste, il y a du boulot.

Algorithme de Shor{{}}

Voici juste quelques considérations sur l’application phare qui fait trembler la cryptographie.
Peter Shor, spécialiste du calcul quantique est un mathématicien américain. Il s’est penché sur la factorisation de grands nombres, et en a tiré une méthode polynomial de calcul. Polynomial ? La complexité croît linéairement avec la taille du nombre alors qu’elle était exponentielle en informatique classique. La question représente un intérêt majeur pour le fonctionnement d’Internet : c’est sur la difficulté de factoriser que repose le secret des transactions.

Calculs

Voyons les performances des calculateurs classiques. Le 12 décembre 2009, après deux ans de travaux une solide équipe de treize mathématiciens et cryptologues menée par Thorsten Kleinjung a extrait avec succès les facteurs premiers d’un nombre formé de deux cent trente deux chiffres après avoir fait tourner quatre-vingt processeurs classiques pendant six mois (Factorization of a 768-bit RSA modulus, version 1.4, February 18, 2010). Beaucoup de chiffres dans une simple phrase dont le seul but est d’illustrer l’énormité de la tâche. Les clefs RSA utilisées en cryptographie font au moins 1024 bits, la valeur 2048 bits étant recommandée par l’ANSSI pour demeurer à l’abri d’une factorisation par des ordinateurs classiques. En pratique, la complexité des meilleurs algorithmes à ce jour épouse une exponentielle fonction du nombre de bits, plus précisément deux à la puissance racine cubique du nombre de bits. Les secrets sont bien préservés sous la protection des nombres premiers.
Avec un calculateur quantique, les calculs sont plus légers car toutes les opérations sont menées simultanément. D’exponentielle, la complexité devient linéaire : elle croît avec le double du nombre de bits suivant l’algorithme de Shor, des optimisations par recyclage de qubits permettant encore de réduire ce nombre. En 2012, 21 a été factorisé avec huit qubits. La factorisation d’un nombre de 2048 bits ne prendrait qu’une petite centaine de secondes.
Cela étant posé, petit calcul : pour « casser » 2048 bits, il faut avec l’algorithme de Shor deux fois plus de qubits, soit 4096 qubits et probablement quelque cent millions de portes. Or le calcul d’erreurs pour pallier la décohérence est gourmand en qubits redondants, au minimum cinq ainsi que le mentionne le cours de Serge Haroche, mais apparemment le calculateur D-Wave 2X en demanderait un minimum de treize. Pour casser RSA ce sont plusieurs dizaines voire la centaine de milliers de qubits qu’il faut maîtriser. Ah oui quand même. Le chat de Schrödinger montre sa queue ! Ces valeurs sont (aujourd’hui …) d’autant plus inconcevables qu’il faut maintenir le tout en état de superposition suffisamment long (une centaine de secondes), alors que l’unité de temps de maintien de la superposition (aujourd’hui …) est plutôt la milliseconde. Il y a du boulot, vous dis-je. C’est sans appréhension que je continue à saisir mon code bancaire.
Relevons quand même le remarquable exploit de l’équipe de Nike Dattani de l’Université de Kyoto qui en novembre 2014 à partir de seulement quatre qubits a factorisé 56 153. Mais l’algorithme utilisé ne concerne que des séries de nombres spécifiques : 143, 56¬ 153, 291 311, ce dernier sur six qubits étant attendu prochainement. Les succès pour quelques séries ne mettent pas en danger la factorisation utilisée en cryptologie.
Résumons-nous sur quelques points …
– L’ordinateur quantique continuité de l’ordinateur classique ?
Non, l’ordinateur quantique ne se comporte pas comme un ordinateur classique. Les modes de traitement de l’information n’ont rien à voir avec nos logiciels. Seuls quelques domaines (simulation, optimisation, recherche de nombres premiers, base de données) sont aujourd’hui identifiés. La complémentarité des deux technologies dans des machines hybrides pourrait avoir un certain sens.
– L’ordinateur quantique pour demain ?
Non, et nous ne sommes pas près d’être prêts. Sur un plan matériel la décohérence se pose en obstacle majeur. Des pistes sérieuses de résolution existent, restent à les étendre à plusieurs centaines de qubits. Il reste par ailleurs à étoffer une panoplie des algorithmes est aujourd’hui fort réduite.
- La décohérence est-elle insurmontable ?
Oui, à court terme. Physiquement la quantité d’interactions entre particules rend impensable l’utilisation de registres de taille suffisante pour construire une machine opérationnelle. Cela dit … la totalité des physiciens qui en 1920 élaboraient des expériences de pensée était persuadée que jamais on ne pourrait les réaliser.
Selon Schrödinger au début des années 1950 réussir à observer une particule unique relevait du fantasme et délivrerait des résultats absurdes. La suite lui a donné à moitié raison : de telles observations ont été réalisées et les résultats en ont confirmé l’absurdité. Alors, un jour peut-être ?
- Des concurrents pour l’ordinateur quantique ?
Oui, un certain nombre. Citons l’ordinateur à ADN qui s’appuie sur la biologie moléculaire en faisant travailler des enzymes ou l’ordinateur neuronal - sans aucun lien avec les réseaux neuronaux - construit autour de neurones biologiques. Mais nous ne disposons encore que de projets certes prometteurs mais non confirmés.

L’histoire n’est pas terminée, elle est en cours. Ce sera l’occasion de rééditer ce papier !

Contactez-nous > 36 Avenue d’Assas 78470 Saint Rémy-Lès-Chevreuse - +33-6 60 62 79 74 - © iXTEL. Tous droits réservés. | Mentions légales | Design : Atoni - iXTEL est membre du Forum ATENA

Source : http://www.ixtel.fr/ixtel1/

Retour au début du sommaire


  • Comment le quantique change la face du monde - L’ordinateur quantique : tout comprendre en 15 minutes - Le 13 septembre 2023 - Isabelle Dumé - | Loïc Henriet, CTO de Pasqal et Landry Bretheau, professeur en physique quantique à l’École polytechnique au sein du Laboratoire de Physique de la Matière Condensée (PMC*) – Document ‘polytechnique-insights.com’

    Loic HenrietLoïc Henriet CTO de Pasqal

Landry Bretheau

Landry Bretheau professeur en physique quantique à l’École polytechnique au sein du Laboratoire de Physique de la Matière Condensée (PMC*)

En bref : {{}}

  • Les qubits peuvent représenter à la fois 0 et 1, contrairement aux ordinateurs classiques. Ils effectuent plusieurs calculs en même temps grâce à leur état superposé, accélérant la résolution de problèmes complexes.
  • À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place et l’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs.
  • Pour qu’un ordinateur quantique fonctionne, il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul.
  • L’ordinateur quantique ne remplacera pas l’ordinateur personnel ou le smartphone, les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public.
    Les ordinateurs quantiques fonctionnent avec des bits quantiques, ou qubits, qui, contrairement aux bits informatiques standard ayant une valeur de soit 0 soit 1, peuvent être à la fois 0 et 1. Cette caractéristique signifie que les ordinateurs quantiques pourraient être beaucoup plus rapides que les ordinateurs classiques pour de nombreuses tâches. Ils pourraient également être utilisés pour résoudre certains problèmes qu’un ordinateur classique ne peut pas résoudre. 

« Un ordinateur quantique manipulera de nombreux qubits dans un état massivement superposé : 0000 plus 1111, par exemple, explique Landry Bretheau. Dans cet état “intriqué”, plusieurs calculs peuvent être effectués en parallèle. Un exemple concret : imaginez que le calcul, le problème, soit de sortir d’un labyrinthe. Comment s’y prendre  ? Un être humain ou un programme informatique va tester différents chemins. À chaque fois, il arrivera à une impasse, puis revendra sur ses pas. Il testera ainsi tous les chemins jusqu’à ce qu’il sorte du labyrinthe. Mais un système quantique peut être dans une superposition d’états, c’est-à-dire qu’il peut se trouver à plusieurs endroits en même temps. Il peut donc essayer d’explorer les différents chemins en parallèle et sortir du labyrinthe plus rapidement.  »

Les qubits peuvent être fabriqués à partir de différentes plateformes ou briques de base matérielles, telles que les qubits supraconducteurs, les particules élémentaires ou les ions piégés. D’autres méthodes en devenir sont les processeurs quantiques photoniques qui utilisent la lumière. « Nous utilisons le terme d’ordinateur quantique, mais il serait préférable de parler de processeur quantique, car l’intégralité d’un calcul ne peut pas être implémentée sur un ordinateur quantique, seulement une petite partie, explique Loïc Henriet. Nous aurons toujours besoin d’un processeur classique pour orchestrer l’ensemble des taches de calcul. »

À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place — par exemple, celui sur lequel travaille l’équipe de Loïc Henriet occupe une grosse boîte de 3 mètres sur 2 mètres sur 2 mètres. Un vide très poussé, de 10-11 mbar, est également nécessaire pour placer les qubits dans des positions bien définies dans l’espace. Cela correspond à peu près à la pression à la surface de la lune.

L’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs. Pour coordonner le fonctionnement de chacun de ces différents équipements (qui constituent le matériel ou hardware) et de les synchroniser, un logiciel embarqué est nécessaire. Ce logiciel correspond au système d’exploitation du processeur quantique.

Applications potentielles{{}}

Il existe de nombreux domaines dans lesquels un ordinateur quantique pourrait s’avérer plus utile qu’un ordinateur conventionnel, que ce soit en termes de temps de calcul ou de qualité des résultats obtenus. L’exemple le plus connu est l’algorithme de Shor, qui permet de factoriser efficacement un grand nombre en facteurs premiers, pour des applications en cryptographie et en sécurité informatique, par exemple. Les ordinateurs quantiques seront également très performants dans l’utilisation d’algorithmes spéciaux pour résoudre des problèmes d’optimisation complexes, tels que ceux liés à l’ordonnancement, au routage et à la logistique. Ces problèmes consistent à trouver la solution optimale parmi un grand nombre de possibilités — le plus célèbre étant le problème du « voyageur de commerce », qui doit trouver l’itinéraire le plus court possible entre plusieurs villes. Les entreprises de livraison et de logistique voudront certainement de ce fait adopter la technologie quantique.

Les problèmes liés à la réactivité des molécules en bénéficieront également. « Il y a beaucoup de recherches dans ce domaine, explique Loïc Henriet. Avec un processeur quantique, nous pourrons effectuer des calculs beaucoup plus efficaces pour déterminer la réactivité de certaines protéines, par exemple, ce qui aura d’énormes applications pour l’industrie pharmaceutique et la synthèse de nouveaux médicaments. Nous pourrons également calculer les propriétés de nouveaux matériaux qui présentent un intérêt dans de nombreux domaines technologiques. »

L’apprentissage automatique et l’intelligence artificielle sont également des domaines d’application importants, car les ordinateurs quantiques devraient être en mesure d’améliorer les algorithmes d’apprentissage automatique — potentiellement de manière spectaculaire — en fournissant des routines d’optimisation plus rapides et plus efficaces ou en explorant de nouveaux modèles et de nouvelles architectures. Il pourrait s’agir d’un nouveau marché massif, mais il dépendra de la construction d’ordinateurs quantiques pratiques à grande échelle et du développement d’algorithmes et d’applications capables de tirer parti de leurs capacités uniques.

Vers l’universalité{{}}

Pour qu’un ordinateur quantique fonctionne, il doit être « universel », c’est-à-dire qu’il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul. La cause principale de ces erreurs est la décohérence des qubits eux-mêmes, qui détruit le caractère quantique des qubits et les ramène à l’état de bits classiques. La décohérence est provoquée par l’interaction des qubits avec leur environnement. 

La véritable difficulté consiste donc à isoler efficacement le système. Pour ce faire, les qubits doivent généralement fonctionner à une température proche de 0 K, tout en étant protégés les uns des autres et de l’environnement. En plus de cela, des techniques de correction d’erreurs quantiques (QEC) peuvent être utilisées dans le but d’atteindre une « informatique quantique tolérante aux pannes ». Ces techniques consistent à utiliser un grand nombre de qubits pour créer un « qubit logique » beaucoup moins sujet aux erreurs. Selon les experts, un véritable « avantage », ou « suprématie » quantique ne pourra être atteint que lorsque les ordinateurs quantiques fonctionneront avec un million de qubits. Et comme le record actuel est encore inférieur à 100 qubits, il reste encore beaucoup de chemin à parcourir.

Les défis importants{{}}

Si, en théorie, rien n’empêche la création d’ordinateurs quantiques à grande échelle, il faut d’abord résoudre certains problèmes d’ingénierie d’envergure. « Les entreprises considèrent l’informatique quantique comme un investissement stratégique et ne veulent pas rater le virage, explique Loïc Henriet. Ce n’est plus maintenant une question de si, mais plutôt une question de quand le processeur quantique fera partie intégrante des solutions informatiques. »

Nous sommes actuellement à l’aube d’une transformation technologique et, en France, nous avons les moyens d’être au cœur de cette révolution, tant au niveau académique qu’au niveau des entreprises et des start-ups. Bien sûr, les clients en bout de chemin et les entreprises doivent aussi être de la partie.

Depuis environ cinq ans, nous assistons à une véritable montée en puissance 

« Cela dit, un ordinateur quantique, universel ou non, ne remplacera pas votre ordinateur personnel ou votre smartphone de sitôt et les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public, ajoute Landry Bretheau. Les scientifiques eux-mêmes seront également les premiers utilisateurs et c’est pourquoi le monde de l’informatique quantique intéresse autant de disciplines : la chimie, la science des matériaux, la biologie et la physique. Chacune de ces disciplines va proposer un algorithme qui permettrait de résoudre une question bien précise. »

« Depuis environ cinq ans, nous assistons à une véritable montée en puissance », explique-t-il. Certains parlent de « boum quantique » avec la création de nombreuses start-ups et des levées de fonds importantes.

PsiQuantum et IonQ, qui ont levé respectivement 600 et 400 millions d’euros, en sont deux exemples marquants. « En France, nous avons le Plan Quantum, annoncé par le président Macron début 2021, et la start-up qui a le plus de vent en poupe d’un point de vue financier en France à l’heure actuelle est Pasqal, qui vient de lever 100 millions d’euros. »

Bien que nous ne parviendrons probablement pas à fabriquer un ordinateur entièrement opérationnel et tolérant aux pannes dans les dix prochaines années, nous pouvons être sûrs que nous ferons en cours de route des découvertes insoupçonnées qui seront potentiellement utiles et changeront peut-être même le visage de la société, tout comme l’informatique classique l’a fait au cours des 50 dernières années et, plus récemment, l’Internet.

« C’est une très belle période pour travailler dans ce domaine, déclare Landry Bretheau. Il y a beaucoup d’excitation et le secteur évolue très vite. »

Isabelle Dumé{{}}

Découvrez également notre magazine Le 3,14 sur le quantique.
À télécharger ici.

https://www.polytechnique-insights.com/wp-content/uploads/2023/10/le-quantique-magazine-725x1024.jpg

Découvrez les autres épisodes de ce dossier{{}}

Source : https://www.polytechnique-insights.com/tribunes/science/lordinateur-quantique-tout-comprendre-en-15-minutes/

Retour au début du sommaire


  • Qu’est-ce que l’informatique quantique ? - Document ‘aws.amazon.com’
    L’informatique quantique est un domaine multidisciplinaire comprenant des aspects de l’informatique, de la physique et des mathématiques qui utilise la mécanique quantique pour résoudre des problèmes complexes plus rapidement que sur des ordinateurs classiques. Le domaine de l’informatique quantique comprend la recherche sur le matériel et le développement d’applications. Les ordinateurs quantiques sont capables de résoudre certains types de problèmes plus rapidement que les ordinateurs classiques en tirant parti des effets de la mécanique quantique comme la superposition et l’interférence quantique. Parmi les applications pour lesquelles les ordinateurs quantiques peuvent fournir un tel gain de vitesse figurent lemachine learning (ML)’, l’optimisation et la simulation de systèmes physiques. Les cas d’utilisation éventuels pourraient être l’optimisation de portefeuilles dans le domaine financier ou la simulation de systèmes chimiques, ce qui permettrait de résoudre des problèmes actuellement impossibles à résoudre, même par les superordinateurs les plus puissants du marché.

Quel est l’avantage de l’informatique quantique ?{{}}

À l’heure actuelle, aucun ordinateur quantique ne peut effectuer une tâche utile plus rapidement, à coût moindre ou plus efficacement qu’un ordinateur classique. L’avantage quantique est le seuil à partir duquel nous avons créé un système quantique capable d’effectuer des opérations que le meilleur ordinateur classique possible ne peut simuler en un temps raisonnable.

Qu’est-ce que la mécanique quantique ?{{}}

La mécanique quantique est le domaine de la physique qui étudie le comportement des particules à un niveau microscopique. Aux niveaux subatomiques, les équations qui décrivent le comportement des particules sont différentes de celles qui décrivent le monde macroscopique qui nous entoure. Les ordinateurs quantiques tirent parti de ces comportements pour effectuer des calculs d’une manière totalement nouvelle.

Qu’est-ce qu’un qubit ?{{}}

Les bits quantiques, ou qubits, sont représentés par des particules quantiques. La manipulation des qubits par des dispositifs de contrôle est au cœur de la puissance de traitement d’un ordinateur quantique. Les qubits des ordinateurs quantiques sont analogues aux bits des ordinateurs classiques. À la base, le processeur d’une machine classique effectue tout son travail en manipulant des bits. De même, le processeur quantique effectue tout son travail en traitant des qubits.

En quoi les qubits sont-ils différents des bits classiques ?{{}}

En informatique classique, un bit est un signal électronique qui est soit activé, soit désactivé. La valeur du bit classique peut donc être ‘un’ (allumé) ou ‘zéro’ (éteint). Cependant, comme le qubit est basé sur les lois de la mécanique quantique, il peut être placé dans une superposition d’états.

Quels sont les principes de l’informatique quantique ?{{}}

Un ordinateur quantique fonctionne selon les principes quantiques. Les principes quantiques nécessitent un nouveau dictionnaire de termes pour une meilleure compréhension, des termes tels que superposition, intrication et décohérence. Découvrons ces principes ci-dessous.

Superposition{{}}

La superposition stipule que, tout comme les ondes en physique classique, vous pouvez additionner deux ou plusieurs états quantiques et le résultat sera un autre état quantique valide. Inversement, vous pouvez également représenter chaque état quantique comme une somme de deux ou plusieurs autres états distincts. Cette superposition de qubits confère aux ordinateurs quantiques leur parallélisme intrinsèque, qui leur permet de traiter des millions d’opérations simultanément.

Intrication{{}}

L’intrication quantique se produit lorsque deux systèmes sont si étroitement liés que la connaissance de l’un permet de connaître immédiatement l’autre, quelle que soit leur éloignement. Les processeurs quantiques peuvent émettre des conclusions sur une particule en mesurant une autre. Par exemple, ils peuvent déterminer que si un qubit pivote vers le haut, l’autre pivote toujours vers le bas, et vice versa. L’intrication quantique permet aux ordinateurs quantiques de résoudre plus rapidement des problèmes complexes.

Lorsqu’un état quantique est mesuré, la fonction d’onde s’effondre et vous mesurez l’état comme un zéro ou un. Dans cet état connu ou déterministe, le qubit se comporte comme un bit classique. L’intrication est la capacité des qubits à corréler leur état avec d’autres qubits.

Décohérence{{}}

La décohérence est la perte de l’état quantique d’un qubit. Des facteurs environnementaux, comme les radiations, peuvent provoquer l’effondrement de l’état quantique des qubits. L’un des grands défis de l’ingénierie dans la fabrication d’un ordinateur quantique est de concevoir les diverses caractéristiques qui tentent de retarder la décohérence de l’état, par exemple en créant des structures spécialisées qui protègent les qubits des champs externes.

Quels sont les composants d’un ordinateur quantique ?{{}}

Les ordinateurs quantiques possèdent un matériel et un logiciel similaires à ceux d’un ordinateur classique.

Matériel quantique{{}}

Le matériel quantique comporte trois composants principaux.

Le plan de données quantique{{}}

Le plan de données quantique est le cœur de l’ordinateur quantique et comprend les qubits physiques et les structures nécessaires pour les maintenir en place.

Plan de contrôle et de mesure{{}}

Le plan de contrôle et de mesure convertit les signaux numériques en signaux de contrôle analogiques ou ondulatoires. Ces signaux analogiques effectuent les opérations sur les qubits dans le plan de données quantiques.

Plan du processeur de contrôle et processeur hôte{{}}

Le plan du processeur de contrôle met en œuvre l’algorithme quantique ou la séquence d’opérations. Le processeur hôte interagit avec le logiciel quantique et fournit un signal numérique ou une séquence de bits classiques au plan de contrôle et de mesure.

Logiciel quantique{{}}

Les logiciels quantiques mettent en œuvre des algorithmes quantiques uniques à l’aide de circuits quantiques. Un circuit quantique est une routine de calcul qui définit une série d’opérations quantiques logiques sur les qubits sous-jacents. Les développeurs peuvent utiliser divers outils et bibliothèques de développement de logiciels pour coder des algorithmes quantiques.

Quels sont les types de technologie quantique ?{{}}

Personne n’a démontré la meilleure façon de créer un ordinateur quantique tolérant aux pannes, et de nombreuses entreprises et groupes de recherche étudient différents types de qubits. Vous trouverez ci-dessous un bref exemple de certaines de ces technologies de qubits.

Processeurs à piège à ions basés sur des portes{{}}

Un ordinateur quantique basé sur une porte est un dispositif qui prend des données d’entrée et les transforme selon une opération unitaire prédéfinie. L’opération est généralement représentée par un circuit quantique et est analogue aux opérations de porte dans l’électronique traditionnelle. Cependant, les portes quantiques sont totalement différentes des portes électroniques.

Les ordinateurs quantiques à piège à ions implémentent des qubits grâce aux états électroniques d’atomes chargés appelés ions. Les ions sont confinés et suspendus au-dessus du piège microfabriqué à l’aide de champs électromagnétiques. Les systèmes basés sur les ions piégés appliquent des portes quantiques utilisant des lasers pour manipuler l’état électronique de l’ion. Les qubits à ions piégés utilisent des atomes qui proviennent de la nature, plutôt que de fabriquer les qubits de manière synthétique.

Processeurs super-conducteurs basés sur les portes{{}}

La supraconductivité est un ensemble de propriétés physiques que l’on peut observer dans certains matériaux comme le mercure et l’hélium à très basse température. Ces matériaux présentent une température critique caractéristique en dessous de laquelle la résistance électrique est nulle et les champs de flux magnétiques sont expulsés. Un courant électrique passant par une boucle de fil supraconducteur peut persister indéfiniment sans source d’énergie.

L’informatique quantique supraconductrice est une mise en œuvre d’un ordinateur quantique dans des circuits électroniques supraconducteurs. Les qubits supraconducteurs sont créés avec des circuits électriques supraconducteurs qui fonctionnent à des températures cryogéniques.

Processeurs photoniques{{}}

Un processeur photonique quantique est un dispositif qui manipule la lumière pour effectuer des calculs. Les ordinateurs quantiques photoniques utilisent des sources de lumière quantique qui émettent des impulsions de lumière comprimée, avec des qubits équivalents qui correspondent aux modes d’un opérateur continu comme la position ou la quantité de mouvement.{{}}

Processeurs à atomes neutres{{}}

La technologie des qubits à atomes neutres est similaire à celle des ions piégés. Cependant, elle utilise la lumière au lieu des forces électromagnétiques pour piéger le qubit et le maintenir en position. Les atomes ne sont pas chargés et les circuits peuvent fonctionner à température ambiante

Processeurs à atomes de Rydberg{{}}

Un atome de Rydberg est un atome excité dont un ou plusieurs électrons sont plus éloignés du noyau, en moyenne. Les atomes de Rydberg ont un certain nombre de propriétés particulières, notamment une réponse exagérée aux champs électriques et magnétiques, et une longue durée de vie. Lorsqu’ils sont utilisés comme qubits, ils offrent des interactions atomiques fortes et contrôlables que vous pouvez régler en sélectionnant différents états.

Recuits quantiques{{}}

Le recuit quantique utilise un processus physique pour placer les qubits d’un système quantique dans un minimum énergétique absolu. À partir de là, le matériel modifie doucement la configuration du système afin que son paysage énergétique reflète le problème à résoudre. L’avantage des recuits quantiques est que le nombre de qubits peut être beaucoup plus important que celui disponible dans un système basé sur des portes. Toutefois, leur utilisation est limitée à des cas spécifiques.

Comment les entreprises utilisent-elles l’informatique quantique ?{{}}

L’informatique quantique peut révolutionner les industries. Vous trouverez ci-dessous quelques exemples de cas d’utilisation :

ML = ‘machine learning’{{}}

Le machine learning (ML) est le processus d’analyse de grandes quantités de données pour aider les ordinateurs à faire de meilleures prédictions et prendre de meilleures décisions. La recherche en informatique quantique étudie les limites physiques du traitement de l’information et innove en matière de physique fondamentale. Cette recherche conduit à des avancées dans de nombreux domaines scientifiques et industriels comme la chimie, l’optimisation et la simulation moléculaire. En outre, les services financiers s’y intéressent de plus en plus pour prédire les mouvements du marché et l’industrie manufacturière pour améliorer ses opérations.

Optimisation{{}}

L’informatique quantique peut améliorer la recherche et le développement, l’optimisation de la chaîne logistique et la production. Par exemple, vous pourriez appliquer l’informatique quantique pour réduire les coûts liés aux processus de fabrication et raccourcir les temps de cycle en optimisant des éléments tels que la planification des parcours dans des processus complexes. Une autre application est l’optimisation quantique des portefeuilles de prêts afin que les prêteurs puissent mobiliser des capitaux, réduire les taux d’intérêt et améliorer leurs offres.

Simulation{{}}

L’effort de calcul nécessaire pour simuler des systèmes avec précision augmente de façon exponentielle avec la complexité des molécules et des matériaux. Même en utilisant des méthodes d’approximation, les superordinateurs actuels ne peuvent pas atteindre le niveau de précision que ces simulations exigent. L’informatique quantique a le potentiel de résoudre certains des problèmes de calcul les plus difficiles rencontrés en chimie, permettant à la communauté scientifique de réaliser des simulations chimiques qui sont aujourd’hui irréalisables. Par exemple,Pasqal a créé son logiciel de calcul QUBEC pour exécuter des simulations chimiques. QUBEC automatise les tâches exigeantes nécessaires à l’exécution de calculs quantiques, de l’approvisionnement automatique de l’infrastructure de calcul à l’exécution de calculs classiques de prétraitement et post-traitement et à l’exécution de tâches d’atténuation des erreurs.

Voir schéma agrandi

https://d1.awsstatic.com/whatisimg/_final_Diagram_AWS-Quantum%402x-02.1c0e1c1844d1edf10101934068a110a78c1c586f.51bda9a53f95b9c587227f8252f861fd8cf717d8.png

Comment se lancer dans l’informatique quantique ?{{}}

Si vous voulez essayer l’informatique quantique, vous pouvez commencer avec un émulateur de matériel quantique sur votre machine locale. Les émulateurs sont des logiciels ordinaires qui imitent le comportement quantique sur un ordinateur classique. Ils sont prévisibles et vous permettent de voir les états quantiques. Ils sont utiles si vous souhaitez tester vos algorithmes avant d’investir dans du temps de matériel quantique. Cependant, ils ne peuvent pas recréer le véritable comportement quantique.

Vous pouvez également utiliser un service cloud de calcul quantique pour coder sur un véritable ordinateur quantique sans investir dans du matériel coûteux.

Comment AWS peut-il vous aider en matière d’informatique quantique ?{{}}

Amazon Braket est un service d’informatique quantique entièrement géré. Il est conçu pour aider à accélérer la recherche scientifique et le développement de logiciels pour l’informatique quantique. Vous pouvez utiliser Amazon Braket pour effectuer ces tâches :

  • Travailler avec différents types d’ordinateurs quantiques et de simulateurs de circuits en utilisant un ensemble cohérent d’outils de développement.
  • Créer des projets quantiques sur un cloud de confiance avec des contrôles de tarification et de gestion simples pour les technologies quantiques et classiques.
  • Innovez rapidement grâce aux conseils d’un expert et à un support technique, ou bien collaborez avec des consultants d’Amazon Quantum Solutions Lab.
  • Repousser les frontières de la recherche en matériel quantique grâce à un accès aux dispositifs à ions piégés, superconducteurs, photoniques et à recuit.
    Lancez-vous dans l’informatique quantique en créant un compte AWS dès aujourd’hui.

Étapes suivantes de l’informatique quantique AWS{{}}

Consulter les ressources supplémentaires relatives au produit - En savoir plus sur les services informatique quantique 

Créer gratuitement un compte - Obtenez un accès instantané à l’offre gratuite AWS. S’inscrire 

Commencer à créer sur la console - Commencez à créer avec AWS dans la Console de gestion AWS.- Se connecter 

Se renseigner sur AWS{{}}

© 2023, Amazon Web Services, Inc. ou ses sociétés apparentées. Tous droits réservés.

Source : https://aws.amazon.com/fr/what-is/quantum-computing/

Retour au début du sommaire


  • Rappel - Des chercheurs font une percée dans le domaine de l’informatique quantique par Brice Louvet, expert espace et sciences- 30 septembre 2024, 6 h 22 min – Document ‘sciencepost.fr’

    informatique quantique puce

Crédits : UniqueMotionGraphics/istock

Depuis des décennies, l’informatique quantique a suscité un vif intérêt, mais a également été confrontée à des défis majeurs, notamment celui de maintenir les qubits à des températures extrêmement basses, juste au-dessus du zéro absolu. Ces températures sont en effet nécessaires pour exploiter les phénomènes quantiques qui confèrent aux ordinateurs quantiques leurs capacités de calcul uniques.{{}}

Des bits…{{}}

Dans le monde de l’informatique, deux grandes catégories de machines se distinguent : les ordinateurs classiques qui ont dominé le paysage technologique pendant des décennies et les ordinateurs quantiques, une nouvelle génération de machines promettant des capacités de calcul révolutionnaires. Pour comprendre les défis actuels et les percées futures, il est essentiel de comprendre ces deux systèmes.

Un ordinateur classique fonctionne selon des principes bien établis de traitement de l’information. Au cœur de cette machine se trouvent les bits, les unités fondamentales de données. Chaque bit peut exister dans l’un des deux états : 0 ou 1. Ils représentent respectivement l’absence ou la présence d’un signal électrique. Ces bits sont les briques élémentaires avec lesquelles sont construites toutes les opérations et les manipulations de données.

Le fonctionnement d’un ordinateur classique repose alors sur des circuits électroniques complexes, tels que les processeurs, les mémoires et les dispositifs de stockage qui manipulent et transmettent ces bits selon des instructions programmées dans le logiciel. Les données sont représentées et traitées de manière séquentielle, une étape à la fois, en suivant des algorithmes définis.

Cette approche classique a fait ses preuves dans une multitude de domaines, des calculs mathématiques aux applications multimédias en passant par les opérations bancaires et commerciales. Cependant, pour certains problèmes complexes, cette approche atteint ses limites en raison de sa nature séquentielle, ce qui a suscité l’intérêt pour une nouvelle approche : l’informatique quantique.

… aux qubits{{}}

Contrairement à son homologue classique, un ordinateur quantique tire parti des étranges phénomènes de la mécanique quantique pour effectuer des calculs. Au cœur de cette machine se trouvent les qubits, les unités d’information quantique. Contrairement aux bits classiques, un qubit peut exister dans un état de superposition, représentant à la fois 0 et 1 simultanément grâce aux propriétés quantiques de la matière.

En outre, les qubits peuvent être intriqués, ce qui signifie que l’état de l’un peut être lié à celui d’un autre, même s’ils sont séparés spatialement. Cette propriété permet aux ordinateurs quantiques d’explorer de manière exponentielle un grand nombre de possibilités en parallèle, offrant un potentiel de calcul qui dépasse de loin les capacités des ordinateurs classiques pour certaines tâches spécifiques.

quantique

Crédits : Bartlomiej Wroblewski/iStock

Plusieurs contraintes avec les qubits et l’informatique quantique{{}}

Malgré leurs promesses, la manipulation des qubits est encore difficile. Imaginez-les comme de minuscules particules quantiques, dont l’état peut être modifié ou altéré par le moindre changement dans son environnement. Les qubits sont donc incroyablement sensibles aux interférences provenant de facteurs externes tels que les variations de champ magnétique, les fluctuations de température ou même les vibrations causées par des activités humaines à proximité.

Ces interférences perturbent l’état des qubits, les faisant sortir de leur état de superposition délicate et pouvant provoquer des erreurs dans les calculs. Ces erreurs sont particulièrement problématiques dans les calculs quantiques complexes où de nombreuses opérations sont effectuées en parallèle sur de nombreux qubits. Même une petite erreur dans l’un des qubits peut se propager et compromettre l’ensemble du calcul, réduisant ainsi la fiabilité et l’efficacité de l’ordinateur quantique.

Pour garantir des résultats précis et fiables, il est donc essentiel de maintenir un environnement extrêmement contrôlé et isolé, ce qui nécessite des dispositifs de confinement sophistiqués et des conditions de fonctionnement très spécifiques.

Des températures extrêmes{{}}

Ces conditions comprennent entre autres des températures extrêmement basses, juste au-dessus du zéro absolu (0 Kelvin ou -273,15°C). À ces températures, l’agitation thermique est en effet minimisée, réduisant ainsi les vibrations moléculaires et les fluctuations de champ magnétique qui pourraient perturber les qubits. Les propriétés quantiques des qubits, telles que l’état de superposition et l’intrication, peuvent donc être préservées plus longtemps, ce qui est essentiel pour effectuer des calculs quantiques précis et fiables.

Par ailleurs, certains matériaux utilisés pour construire les qubits, tels que les supraconducteurs, présentent des propriétés optimales à des températures extrêmement basses. En les refroidissant à proximité du zéro absolu, ces matériaux deviennent alors supraconducteurs, ce qui signifie qu’ils conduisent l’électricité sans aucune résistance, ce qui est essentiel pour le fonctionnement des qubits.

Naturellement, tout cela nécessite des dispositifs de réfrigération massifs et complexes, ce qui représente un défi logistique et énergétique important pour la construction et l’exploitation des ordinateurs quantiques.

Une avancée majeure dans l’informatique quantique{{}}

Dans une étude récente, une équipe de chercheurs a cependant démontré qu’un certain type de qubit, basé sur les spins d’électrons individuels, peut fonctionner à des températures autour de 1K, ce qui équivaut à -272,15 degrés Celsius. On est donc à un degré au-dessus du zéro absolu. Cela pourrait ne pas paraître beaucoup, mais dans ce milieu, la différence est énorme.

L’informatique quantique, bien que complexe et encore en développement, progresse à un rythme impressionnant. Les avancées récentes, comme la possibilité d’exploiter des qubits à des températures moins extrêmes, laissent entrevoir des solutions aux obstacles techniques rencontrés jusqu’ici. Cette évolution pourrait permettre à l’informatique quantique de se rapprocher d’une utilisation plus pratique et économique, transformant ainsi des secteurs entiers qui nécessitent une puissance de calcul inégalée. Le chemin est encore long, mais chaque avancée nous rapproche d’une nouvelle ère technologique.

En continu{{}}

Source : https://sciencepost.fr/article-percee-informatique-quantique-qubit/

Retour au début du sommaire

  • 2
  • Haut du formulaire
    Bas du formulaire

5.
Dernier-né du calcul quantique français, ‘Crystal Quantum Computing’ mise sur les ions piégés - Réservé aux abonnés - Gautier Virol -30 septembre 2024 \ 11h00 – Document ‘usinenouvelle.com’

Discrète depuis sa création en 2021, la start-up parisienne ‘Crystal Quantum Computing’ mise sur la technologie des ions piégés. Présentée comme novatrice, son approche saura-t-elle s’imposer face à celles de la concurrence, arrivée plus tôt ?

Dernier-né du calcul quantique français, Crystal Quantum Computing mise sur les ions piégés© Hervé Boutet

Crystal Quantum Computing aplique l’approche des portes de Rydberg, utilisées par Pasqal dans son calculateur quantique à atomes froids (photo), à son système à ions piégés.

C’est la plus jeune et, pour l’instant, la plus discrète des start-up françaises du calcul quantique. Lancée en mars 2021, Crystal Quantum Computing sort doucement de l’anonymat. Composée de quatre personnes – dont deux associés et un doctorant – la jeune pousse parisienne se met tout juste en ordre de bataille. En basant son approche sur la technologie dite des ions piégés, elle se pose en alternative à ses compatriotes Pasqal, Alice & Bob, Quandela, Quobly et C12, qui explorent toutes des technologies différentes.

Son approche diffère aussi de celle d’IonQ, pionner des ions piégés coté en Bourse à New York depuis octobre 2021. La technologie de Crystal Quantum Computing se base sur les travaux de son fondateur Quentin Bodart, physicien passé par les capteurs quantiques avant de se spécialiser dans les systèmes de calcul. « Nous avons développé une nouvelle porte quantique : la porte de Rydberg, explique-t-il à L’Usine Nouvelle. Cette approche était réservée aux atomes neutres jusqu’à mes travaux de post-doctorat, nous l’appliquons désormais aux ions piégés. »

D’après le scientifique, cela permet de profiter des avantages des deux approches : « la stabilité des ions piégés et la vitesse des états de Rydberg », explique-t-il. Ses qubits offrent ainsi un temps de cohérence relativement long, et une vitesse d’opération rapide, de quoi faire beaucoup de calculs pendant leur durée de vie.

Culture du secret{{}}

Pour accompagner son développement, Crystal Quantum s’associe avec le laboratoire du CNRS Matériaux et phénomènes quantiques (MPQ), à l’université Paris Cité, spécialiste de la question des ions piégés. « L’architecture du système est très importante pour contrôler les ions et effectuer des opérations, rappelle Quentin Bodart. Avoir le soutien d’un laboratoire comme le MPQ est très important pour notre développement. »

Quant à sa technologie, la start-up reste discrète. Voire mutique. Mis à part l’utilisation de lasers ultra-violets et d’une chambre à vide, rien ne filtre. Crystal Quantum n’a pas déposé de brevet, mais des enveloppes Soleau garantissant la paternité de ses développements, qui doivent lui permettre d’utiliser sa technologie même en cas de dépôt de brevets concurrents. « Ces enveloppes permettent un secret total, contrairement aux brevets qui sont rendus publics après deux ans », souligne Quentin Bodart. Une culture du secret à rebours de la concurrence, généralement encline à partager ses progrès avec la communauté scientifique.

Une levée de fonds en projet {{}}

Après avoir remporté un appel à projets de la région Ile-de-France (Innov’up Leader PIA), doté de 450000 euros, la jeune pousse passée par l’incubateur de Telecom Paris a noué en septembre un partenariat (accompagné d’un investissement de 100000 euros) avec le groupe d’ingénierie Advans. Elle se lance désormais dans sa première levée de fonds. « Notre objectif est de lever 2,5 à 3 millions d’euros pour les trois prochaines années, mais nous devons avant tout récolter 500000 euros pour débloquer la subvention liée à l’appel à projets régional », rappelle Quentin Bodart.

Cela sera indispensable pour tenir dans la course face à ses compatriotes… et les autres. « On a lancé Crystal Quantum car on pense ne pas avoir les points bloquants de nos concurrents », estime son fondateur. La start-up mise aussi sur un modèle différent. « Nous allons essayer d’externaliser au maximum certains axes – comme la création d’un émulateur, le développement d’algorithmes ou l’offre quantum as a service – auprès de start-up françaises spécialisées pour pouvoir nous concentrer sur notre cœur de métier et garder le contrôle de nos dépenses », explique-t-il. Encore à ses débuts, l’entreprise n’a pas encore noué de partenariat avec ce type de partenaires et dit opérer, pour l’instant, projet par projet pour ne pas se fermer de porte.

Une techno concurrente déjà accessible sur le cloud{{}}

Ce plan d’action sera-t-il suffisant pour rattraper son retard face à la concurrence ? Crystal vise un système à 100 qubits d’ici à 2029. À titre de comparaison, Pasqal a dépassé ce seuil en 2024 – il vise 10000 qubits en 2026 – et a déjà levé 140 millions d’euros. Mais cette course technologique ne se résume pas à l’accumulation de qubits. Elle se joue aussi et dès à présent sur le plan commercial. Et la plupart des start-up françaises et étrangères ont commencé à commercialiser des offres, voire des produits.

C’est le cas d’IonQ, son plus proche concurrent, dont la technologie est accessible en cloud et qui prévoit de commercialiser des racks quantiques d’ici à la fin 2024. Crystal Quantum devra convaincre les utilisateurs de la supériorité de son environnement pour les faire changer de crèmerie.

Sélectionné pour vous :

Mincatec développe son stockage d’hydrogène avec un projet d’usine à Belfort

Mincatec développe son stockage d’hydrogène avec un projet d’usine à Belfort

La start-up nucléaire Thorizon veut vaincre les problèmes de corrosion des SMR aux sels fondus

La start-up nordiste Lifebloom fait du fauteuil-roulant un exosquelette connecté pour aider à remarcher

Sur le même sujet : {{}}

Deux ans après le plan quantique, l’écosystème de jeunes pousses est sur de bons rails

Avec ses derniers travaux, Google lève des doutes majeurs sur l’informatique quantique

Le calculateur quantique de Quandela se fait une place chez OVHcloud

Pour lire l’intégralité de cet article, abonnez-vous à L’Usine nouvelle - édition Abonné&at_emplacement_site=page_article&at_variant=a]

Source : https://www.usinenouvelle.com/article/dernier-ne-du-calcul-quantique-francais-crystal-quantum-computing-mise-sur-les-ions-pieges.N2219283

Retour au début du sommaire


    • IBM parie sur l’informatique quantique pour revenir au premier plan - François Manens- 01 octobre 2024, 17:47 – Publié par ‘latribune.fr’
      IBM a ouvert en Allemagne son premier « data center quantique » européen. L’entreprise américaine compte s’appuyer sur ses partenaires du Vieux Continent pour prendre une longueur d’avance dans cette technologie de rupture au potentiel immense. Objectif : devenir le Nvidia du quantique... et revenir au premier plan après s’être fait doubler dans l’intelligence artificielle et le cloud par Microsoft, Google et consorts.

François Manens

Le chancelier Olaf Schulz, à l’inauguration du premier datacenter quantique d’IBM.

Le chancelier Olaf Schulz, à l’inauguration du premier datacenter quantique d’IBM. (Crédits : IBM)

Un petit pas pour l’informatique quantique en Europe. Ce mardi 1er octobre, IBM a inauguré un « data center quantique » à Ehningen, en Allemagne, son premier du genre en dehors des États-Unis. L’entreprise, qui se trouve au coude à coude avec Google pour le titre officieux de numéro un de l’informatique quantique, va y installer un système basé sur son processeur dernier cri, baptisé Heron.

Signe de l’importance du projet, l’événement a fait déplacer le chancelier allemand Olaf Scholz et le patron de l’entreprise Arvind Krishna. Pour le premier, l’installation de cette structure hors norme doit permettre de positionner le pays dans l’informatique quantique, un des quatre domaines technologiques critiques identifiés par l’Union Européenne. Pour le second, l’enjeu est de se rapprocher de plus d’un tiers des membres de son écosystème de partenaires dans le quantique, soit 80 entreprises et instituts de recherche. Jay Gambetta, vice-président d’IBM Quantum, insiste : « Pour que l’informatique quantique se développe, nous avons besoin que de nouveaux algorithmes soient découverts, et donc nous avons besoin de mettre l’informatique quantique dans les mains des chercheurs.  »

Redevenir incontournable{{}}

Géant technologique d’antan, IBM joue gros. Après s’être fait distancer par Microsoft, Google ou encore Amazon dans les derniers virages technologiques majeurs que sont le cloud et l’intelligence artificielle, il mise sur l’informatique quantique pour revenir au premier plan.

Très bien positionnée, l’entreprise a encore un long chemin à parcourir avant de remporter ce pari, tant la technologie n’en est encore qu’à ses balbutiements. Mais jusqu’ici, elle tient à la lettre sa feuille de route publique, qui prévoit d’aboutir en 2029 à la production d’un ordinateur quantique stable et performant.

Particulièrement transparent sur ses progrès, alors que son concurrent principal Google ne communique que ponctuellement, IBM place ses pions à tous les niveaux. Non seulement il développe les processeurs très complexes nécessaires aux calculs quantiques, mais il travaille aussi sur la couche logicielle pour programmer des applications métier sur ces machines.

Baptisée Qiskit, la plateforme d’IBM open source permet d’ores et déjà aux entreprises -comme le Crédit Mutuel (CMAF)- de développer des programmes qu’ils pourront ensuite faire tourner sur pratiquement toutes les machines quantiques, d’IBM ou non. Dans une industrie naissante où le débat sur la meilleure méthode d’ingénierie à utiliser pour créer le phénomène quantique fait encore débat, c’est une garantie presque essentielle.

Devenir le Nvidia du quantique{{}}

Si IBM réussit son pari d’imposer à la fois le matériel et le logiciel de référence pour l’informatique quantique, il pourrait se retrouver dans une position similaire à celle de Nvidia dans l’intelligence artificielle. En devenant un point de passage obligatoire pour toute entreprise qui souhaite créer des IA génératives, ce dernier a fait exploser son chiffre d’affaires, ses bénéfices, et sa valeur en Bourse.

Mais à l’inverse d’IBM, Nvidia a mis toutes ces billes dans le même panier : sa plateforme de développement Cuda ne permet de programmer que sur les processeurs (GPU) de la marque. Par conséquent, de nombreux ingénieurs en IA ne sont formés que sur Cuda, ce qui rend difficile l’émergence de la concurrence et créée une situation de monopole pour Nvidia.

De son côté, IBM ne pense pas avoir besoin de monopole pour toucher le jackpot, et mise sur une approche plus ouverte avec Qiskit. Cela lui permet non seulement de ne pas mettre tous ses œufs dans le même panier, mais aussi d’éviter de potentiels problèmes avec les régulateurs dans le futur. Dans un rapport publié cet été, leBoston Consulting Groupestime que les fournisseurs de calcul quantique se partageront un marché estimé entre 15 milliards et 30 milliards de dollars par an dès les années 2030. Et ce ne serait qu’un avant-goût de son potentiel.

Potentiel révolutionnaire, à confirmer{{}}

Rarement une technologie n’a porté autant de promesses que l’informatique quantique. En ouvrant une nouvelle façon d’opérer les calculs, elle permettrait de révolutionner la découverte de médicaments, de créer de nouveaux matériaux, ou encore d’affiner la compréhension des causes du réchauffement climatique.

Contrairement aux, a priori, l’ordinateur quantique n’est pas un superordinateur, c’est « juste » un ordinateur différent avec un fonctionnement différent. C’est une brique de plus dans l’informatique, et non le remplaçant des technologies actuelles. D’ailleurs, s’il est censé à terme être capable d’accomplir des tâches infaisables par les ordinateurs traditionnels, il restera bien moins performant sur les tâches où ces derniers excellent. Dans sa vision du datacenter du futur, IBM connecte des systèmes quantiques, avec des superordinateurs et des systèmes traditionnels.

Mais la route reste longue. Aujourd’hui, l’entreprise travaille sur plusieurs familles de processeurs en parallèle (toutes avec des noms d’oiseaux), chacune répondant à un enjeu spécifique. L’une va se concentrer sur le passage à l’échelle du nombre de qubits, l’unité de puissance des ordinateurs quantiques -qui correspond aussi à un phénomène physique.

Une autre va s’attacher à la réduction du taux d’erreurs dans les calculs, aujourd’hui trop élevé. Une autre encore se concentrera sur la stabilité des qubits. « Tout l’enjeu est de réussir à faire parler les qubits entre eux, sans perdre la qualité et sans générer de bruit », résumait dansLes Échos Pierre Jaeger, directeur technique chez IBM chargé de l’établissement de partenariats stratégiques.

L’architecture de référence, Heron, est le produit de toutes ces avancées. Selon l’entreprise, il affiche par rapport à son prédécesseur Eagle (2022) un taux d’erreurs divisé par cinq, des performances 16 fois supérieures et une vitesse de calcul 25 fois plus rapide.

Objectif « utilité quantique  »{{}}

Malgré des progrès constants, les processeurs d’IBM comme ceux de la concurrence ne permettent toujours pas d’atteindre la «  suprématie quantique », ce stade symbolique où l’ordinateur quantique réalisera des tâches irréalisables avec les ordinateurs traditionnels.

En revanche, l’entreprise emploie le terme « d’utilité quantique », pour signifier qu’il est possible, d’après elle, de trouver des cas d’usages où les systèmes quantiques actuels offriront un avantage par rapport à l’informatique actuelle.

C’est dans cet objectif qu’elle ouvre son data center en Europe, afin de se rapprocher de ses partenaires industriels (Volkswagen, Bosch, Crédit Mutuel...) et spécialisés (Pasqal, BasQ, Algorithmiq...). Autant d’alliés potentiels pour lui permettre d’émerger en tête de la révolution de l’informatique quantique, quand le temps viendra.

Lire aussi Pourquoi le Crédit Mutuel mise gros sur l’informatique quantique

Lire aussi Quantique : IBM s’allie au français Pasqal pour développer « une nouvelle génération de supercalculateurs »

François Manens

Partager :

Newsletter - Tech & Médias - Du lundi au vendredi, à 13h, recevez l’essentiel de l’actualité de la tech et des médias

Source : https://www.latribune.fr/technos-medias/informatique/ibm-parie-sur-l-informatique-quantique-pour-rebondir-1007835.html

JH2024-10-12T20:46:00J

Retour au début du sommaire


    • Le Grand collisionneur de hadrons (LHC) : observation de l’intrication quantique à une énergie inédite - Publié par Adrien le 10/10/2024 à 06:00 - Source : CERN - EN, DE, ES, PT
      Ces résultats ouvrent une perspective nouvelle sur le monde complexe de la physique quantique

      L’intrication quantique est une caractéristique fascinante de la physique quantique - la théorie de l’infiniment petit. Lorsque deux particules sont dans un état d’intrication quantique, l’état de l’une détermine celui de l’autre, quelle que soit la distance qui les sépare. Ce phénomène troublant, qui n’a pas de pendant en physique classique, a été observé dans une grande variété de systèmes et a trouvé plusieurs applications importantes, telles que la cryptographie quantique et l’informatique quantique.

https://static.techno-science.net/illustration/Source/CERN/2024/09/19/Top-Top-entanglement-ATLAS-v03-00049-no-p-0.jpg
Vue d’artiste d’une paire de quarks top intriqués. Image : CERN

En 2022, le prix Nobel de physique a été attribué à Alain Aspect, John F. Clauser et Anton Zeilinger, pour leurs expériences pionnières sur des photons intriqués. Ces expériences ont confirmé les prédictions sur la manifestation de l’intrication faites par John Bell, théoricien du CERN aujourd’hui disparu, et ont ouvert la voie à la science de l’information quantique.

L’intrication restait très peu étudiée aux énergies élevées atteintes dans les collisionneurs de particules tels que le Grand collisionneur de hadrons (LHC). Dans un article publié dans la revue Nature, la collaboration ATLAS décrit comment elle a réussi à observer l’intrication quantique pour la première fois entre des particules fondamentales appelées quarks top et à des énergies inédites.

D’abord rapporté par ATLAS en septembre 2023, puis confirmé par une première, ainsi qu’une seconde observation de la collaboration CMS, ce résultat a ouvert une nouvelle perspective sur le monde complexe de la physique quantique.

’Bien que la physique des particules soit profondément ancrée dans la physique quantique, l’observation de l’intrication quantique dans un nouveau système de particules et à une énergie beaucoup plus élevée que ce qui était possible auparavant est remarquable, explique Andreas Hoecker, porte-parole d’ATLAS. Elle ouvre la voie à de nouvelles recherches sur ce phénomène fascinant, et à une multitude d’études à mesure que nos échantillons de données continuent de croître.’

Les équipes d’ATLAS et de CMS ont observé l’intrication quantique entre un quark top et son antiparticule. Ces observations s’appuient sur une méthode récemment proposée consistant à utiliser des paires de quarks top produites au LHC comme nouveau système pour étudier l’intrication quantique.

Le quark top est la particule fondamentale la plus lourde connue. Il se désintègre normalement en d’autres particules avant d’avoir le temps de se combiner avec d’autres quarks, transférant son spin et d’autres caractéristiques quantiques aux particules issues de sa désintégration. C’est en observant les produits de ces désintégrations que les physiciens peuvent déduire l’orientation du spin du quark top.

Pour observer l’intrication entre les quarks top, les collaborations ATLAS et CMS ont sélectionné des paires de quarks top dans les données issues des collisions proton-proton qui ont eu lieu à une énergie de 13 téraélectronvolts pendant la deuxième période d’exploitation du LHC, entre 2015 et 2018. Ils ont en particulier recherché des paires dans lesquelles les deux quarks sont produits simultanément avec une faible impulsion l’un par rapport à l’autre. Dans ce cas, les spins des deux quarks devraient être fortement intriqués.

L’existence du phénomène d’intrication et le degré d’intrication des spins peuvent être déduits de l’angle entre les directions dans lesquelles sont émis les produits électriquement chargés issus de la désintégration des deux quarks. En mesurant ces séparations angulaires et en corrigeant les effets expérimentaux qui pourraient altérer les valeurs mesurées, les équipes d’ATLAS et de CMS ont chacune observé une intrication de spin entre les quarks top, avec une signification statistique supérieure à cinq écarts-types.

Dans sa deuxième étude, la collaboration CMS a également recherché des paires de quarks top dans lesquelles les deux quarks sont produits simultanément avec une impulsion élevée l’un par rapport à l’autre. Dans cette configuration, pour une grande fraction des paires de quarks top, les positions et les temps relatifs des deux désintégrations de quarks top devraient, d’après la théorie, exclure l’échange classique d’informations par des particules se déplaçant à une vitesse atteignant au maximum celle de la lumière ; CMS a observé l’intrication de spin entre les quarks top également dans ce cas.

Avec des mesures de l’intrication et d’autres concepts quantiques dans un nouveau système de particules et dans une gamme d’énergie dépassant ce qui était accessible jusqu’ici, nous pouvons tester de différentes manières le Modèle standard de la physique des particules et rechercher des signes d’une éventuelle nouvelle physique au-delà de ce modèle’, explique Patricia McBride, porte-parole de CMS.

Pour en savoir plus :
- Article ATLAS Nature
- Première étude du CMS
- Deuxième étude de la CMS

Autres lectures :https://www.techno-science.net/actu...

Capturer un graviton : une révolution quantique

Avec l’ordinateur quantique, réconcilier relativité d’Einstein et mécanique quantique ?

Le temps : une illusion quantique ?

Du quantique à la relativité : cette expérience d’intrication quantique détecte la rotation terrestre

Source : https://www.techno-science.net/actualite/lhc-observation-intrication-quantique-energie-inedite-N25745.html

Retour au début du sommaire

Les délicats qubits perdent facilement leurs propriétés quantiques, occasionnant des erreurs de calcul. Deux méthodes très différentes, la mitigation et les codes correcteurs, tentent de résoudre ce problème.

Une clé USB ’32 Go’ ne fait pas 32 gigaoctets. Ce qui est annoncé, c’est la capacité nette. Sa capacité brute est plus grande. Cela permet de faire de la correction d’erreurs. Ordinateurs, téléphones… Partout, l’information est partiellement redondante de manière à pouvoir corriger un bit défaillant. Il en va de même pour un ordinateur quantique, mais dans des proportions incomparables.

’Aujourd’hui, nos ordinateurs quantiques font en moyenne une erreur toutes les mille opérations ; dans nos téléphones, c’est une erreur tous les un million de milliards d’opérations ’, illustre Nicolas Delfosse, à la tête de l’équipe de recherche sur la correction d’erreurs d’IonQ. Et le constat ne changera pas drastiquement. Le manque de fiabilité est inhérent aux qubits.

Dans un ordinateur quantique, les fautes peuvent en effet arriver à tout moment. C’est ce qu’on appelle la décohérence, quand un qubit perd son état quantique. Il n’est alors plus à la fois 1 et 0 en même temps, il devient, comme un bit classique, soit 1, soit 0, ce qui fausse le calcul. Plus le temps passe, plus il y a de chances que cela arrive. Puisqu’elles sont inéluctables, que faire de ces erreurs ?

Les idéalistes rêvent d’une machine qui corrige ses fautes au fil de l’eau et pourrait tourner théoriquement à l’infini : l’ordinateur tolérant aux fautes (le large scale quantum, ou LSQ). Les pragmatiques croient, eux, en des méthodes qui atténuent les effets des erreurs sur le résultat final, de sorte qu’un ordinateur quantique ’bruité’ (c’est-à-dire commettant des erreurs) pourrait sortir des résultats intéressants quand même. Ce type de machine est appelé NISQ (noisy intermediate scale quantum). Ici, les erreurs ne sont plus corrigées, mais ’mitigées’.

Cet article est extrait du mensuel Sciences et Avenir - La Recherche n°932, daté octobre 2024.

Lire aussi : Ordinateur quantique et algorithmes : des logiciels à affûter

La mitigation d’erreurs, une transition vers la correction Lire la suite sur sciencesetavenir.fr]

Source via : https://fr.news.yahoo.com/ordinateur-quantique-linextricable-probl%C3%A8me-erreurs-040000083.html?guccounter=1

Retour au début du sommaire

    • 10.000 milliards d’années pourraient ne pas suffire à un superordinateur pour battre cette nouvelle machine quantique de Google - Rédaction : Shirley Taieb - Date : 11 octobre 2024 à 15h00 – Document ‘Mobeez’
      Google révèle que les superordinateurs classiques mettraient 10.000 milliards d’années à rivaliser !{{}}

Selon une récente étude publiée par Google, les ordinateurs quantiques pourraient accomplir des tâches impossibles pour les superordinateurs classiques, transformant radicalement notre compréhension de la puissance de calcul. Cette découverte souligne l’incroyable potentiel des technologies quantiques et met en lumière des scénarios où ces machines surpassent de loin les plus puissants des superordinateurs actuels.

Suprématie quantique : une réalité{{}}

Google franchit une nouvelle étape dans la course à la suprématie quantique avec son processeur Sycamore. La récente étude montre que sous certaines conditions, notamment un faible niveau de bruit, les performances de ce processeur quantique surpassent celles de tout superordinateur classique, rendant certaines simulations et calculs pratiquement instantanés comparés aux 10.000 milliards d’années nécessaires pour un superordinateur classique. Cette percée pourrait accélérer de nombreux domaines de recherche, ouvrant la voie à des découvertes scientifiques auparavant inimaginables.

Comprendre le fonctionnement de Sycamore{{}}

Le processeur quantique Sycamore, au cœur de cette révolution, utilise un algorithme appelé échantillonnage de circuits aléatoires (RCS) pour générer des séquences de valeurs complexes. Cette étude a mis en évidence que lorsque Sycamore fonctionne avec peu de bruit, il atteint un niveau de complexité computationnelle inaccessible pour les superordinateurs classiques. Ce niveau de performance démontre le potentiel transformationnel des ordinateurs quantiques dans le traitement de l’information à une échelle jusqu’alors inatteignable.

Seuil de bruit et transitions quantiques{{}}

Les chercheurs de Google ont identifié un seuil de bruit critique au-delà duquel le Sycamore peut être dupé par des superordinateurs classiques. Cependant, en dessous de ce seuil, la complexité des calculs augmente, entraînant une transition vers une phase de calcul stable et extrêmement complexe, inaccessible aux machines classiques. Cette découverte souligne l’importance de minimiser le bruit pour exploiter pleinement les capacités des systèmes quantiques.

La dualité des transitions observées{{}}

L’étude révèle également deux transitions de phase quantiques clés. La première est une transition dynamique en fonction du nombre de cycles, et la seconde, une transition de phase quantique contrôlée par l’erreur par cycle, analysée à la fois théoriquement et expérimentalement grâce à un modèle de maillon faible. Ces transitions de phase sont fondamentales pour comprendre comment manipuler et maintenir les états quantiques pour une utilisation pratique.

Au-delà des capacités classiques{{}}

En exploitant 67 qubits sur 32 cycles, les chercheurs démontrent que le coût computationnel de leurs expériences dépasse largement celui des superordinateurs classiques actuels, même en tenant compte du bruit inévitable. Ces résultats confirment l’existence de phases computationnelles stables et complexes, accessibles avec les processeurs quantiques actuels. Cette démonstration prouve que les ordinateurs quantiques sont prêts à prendre en charge des tâches de calcul intensif qui défieraient toute tentative de simulation sur des plateformes classiques.

Le rôle unique du processeur Sycamore{{}}

Contrairement aux puces en silicium traditionnelles, le processeur Sycamore est conçu pour contrôler précisément les électrons à des températures proches du zéro absolu, afin de minimiser les fluctuations de température qui pourraient perturber les états délicats des électrons et introduire du bruit. Cette maîtrise du froid extrême est cruciale pour maintenir l’intégrité des calculs quantiques et pour avancer vers des applications technologiques concrètes et efficaces.

Quantum vs Classical : implications futures{{}}

Bien que les résultats impressionnants de Google ne signifient pas que les ordinateurs quantiques remplaceront les ordinateurs classiques dans tous les domaines, ils ouvrent la porte à des applications spécifiques où les quantiques excelleront, comme la simulation précise de réactions chimiques, auparavant jugées impossibles. Ces résultats indiquent également la direction future de l’informatique, où les technologies quantiques et classiques pourraient coexister, chacune optimisée pour des types de tâches spécifiques.

A lire aussi :

Cette puce dépasse les géants de la technologie en lançant la première technologie nanoscopique au monde ouvrant une nouvelle ère pour nos smartphones

L’Allemagne dévoile un super ordinateur quantique qui promet de transformer la recherche mondiale ouvrant la porte à des innovations inimaginables

La Chine franchit un pas de géant et lance la première transmission mondiale de cette technologie futuriste qui redéfinie les fondations d’internet

Cette puce dépasse les géants de la technologie en lançant la première technologie nanoscopique au monde ouvrant une nouvelle ère pour nos smartphones

Sur le même sujet 17 800 € pour le processeur le plus cher au monde : Ce géant américain bat tous les records de puissance avec son nouveau bijou qui révolutionne l’industrie technologique

Sur le même sujet L’Apple Watch Series 10 bat des records d’autonomie mais ce gros problème risque de détruire les ventes

Source : https://www.mobeez.fr/actualites/14627/10-000-milliards-dannees-pourraient-ne-pas-suffire-a-un-superordinateur-pour-battre-cette-nouvelle-machine-quantique-de-google/

Retour au début du sommaire

    • {{}}
      Eviden favorise l’adoption de l’informatique quantique grâce à l’ordinateur quantique IQM Spark
      October 09, 2024 03:00 ET | Source : Atos International

Installé dans l’usine d’Eviden à Angers, il permettra aux clients du groupe de se familiariser avec la programmation et les premières applications quantiques

Paris, France – 9 octobre 2024 – Eviden, la ligne d’activités du groupe Atos leader en calcul avancé, annonce aujourd’hui la signature d’un partenariat avec IQM Quantum Computers – un leader mondial dans la conception, la construction et la vente d’ordinateurs quantiques – afin de faire de l’informatique quantique une réalité pour les entreprises et organisations.

Bien que la performance soit clé, la stabilité et la fidélité des qubits sont devenues les pierres angulaires de la révolution quantique à venir pour réaliser des opérations exactes. Pour répondre à cet enjeu, IQM SparkTM, ordinateur quantique supraconducteur fourni par IQM Quantum Computers, offre une haute-fidélité pour les opérations à un ou deux qubits, permettant ainsi des applications quantiques fiables et précises.

Eviden a installé cet ordinateur quantique IQM SparkTM, spécialement conçu pour la formation et la recherche expérimentale, afin que ses clients puissent apprendre, expérimenter et développer des preuves de concept (PoC) quantiques en conditions réelles. L’installation d’IQM SparkTM est une étape majeure dans la feuille de route quantique d’Eviden qui s’engage à rendre ces technologies plus accessibles et à favoriser leur adoption.

Installée dans l’usine phare d’Eviden à Angers, les utilisateurs et clients du Groupe pourront bénéficier d’un accès physique complet à la machine pour mener à bien des expérimentations immédiates. L’accès on-premise sera complété par un accès à distance et à la demande grâce à un cloud privé d’Eviden, permettant de déployer encore plus largement cette technologie.

Centres de recherche, universités et acteurs industriels pourront ainsi mieux appréhender et comprendre les technologies d’informatique quantique et découvrir, entre autres, les différentes approches de programmation, les modèles de bruits ou encore les contraintes d’utilisation.

La communauté R&D d’Eviden ainsi que l’équipe de conseil en informatique quantique auront également un accès privilégié à IQM SparkTM pour améliorer les applications quantiques, favoriser l’intégration avec les clusters de calcul haute-performance, améliorer les compilateurs et créer de nouveaux compilateurs adaptés à la technologie d’IQM.

L’accès à cet ordinateur quantique fait désormais partie intégrante de l’offre Qaptiva d’Eviden, un environnement complet pour le développement d’application quantique, enrichi de services de conseil et d’un écosystème de partenaires matériels et logiciels.

Dr Cédric Bourrasset, Directeur mondial des activités HPC-IA et Informatique quantique, Eviden, Groupe Atos a déclaré « Héberger notre tout premier ordinateur quantique est une étape clé dans notre feuille de route quantique. Désormais, Eviden est à même d’offrir des capacités d’émulation quantique et de calcul quantique dans une seule et même offre pour faire découvrir l’univers quantique. Et cela sans le coût élevé et les complexités généralement associés à ces technologies, afin de rendre l’informatique quantiques toujours plus accessible. »

Dr Mikko Välimäki, Co-directeur général, IQM Quantum Computers a souligné « L’installation d’IQM Spark, le premier ordinateur quantique opérationnel chez Eviden, vient compléter le réseau grandissant de systèmes que nos équipes ont déployé à travers le monde et démontre notre engagement à accélérer le déploiement commercial de l’informatique quantique dans les entreprises. Nous sommes convaincus que notre système apporter une valeur ajoutée significative pour les clients d’Eviden et attendons avec impatience d’accompagner d’autres entreprises dans leur stratégie quantique. »

Sylwia Barthel de Weydenthal, Vice-présidente, Directrice commerciale et marketing, IQM Quantum Computers, a ajouté « A travers notre partenariat avec Eviden, nous fournissons des technologies d’informatique quantique de pointe, et bien plus encore. Nous facilitons les opportunités de formation et d’expérimentation pour les futurs innovateurs quantiques en France qui vont développer des applications et preuves de concept quantiques, et accélérons ainsi l’adoption et la démocratisation des technologies quantiques. »

***{{}}

A propos d’Eviden 1

Eviden est un leader technologique de nouvelle génération, spécialiste d’une transformation numérique fiable, durable et basée sur les données, qui dispose d’un solide portefeuille de technologies brevetées. Son positionnement de leader mondial dans le calcul avancé, la sécurité, l’IA, le cloud et les plateformes numériques lui permet de fournir une expertise approfondie pour l’ensemble des secteurs d’activité, dans plus de 47 pays. En rassemblant 47 000 talents de classe mondiale, Eviden élargit les possibilités offertes par les données et la technologie sur le continuum numérique, dès aujourd’hui et pour les générations à venir. Eviden est une société du groupe Atos qui réalise un chiffre d’affaires annuel d’environ 5 milliards d’euros.

À propos d’Atos {{}}

Atos est un leader international de la transformation digitale avec environ 92 000 collaborateurs et un chiffre d’affaires annuel d’environ 10 milliards d’euros. Numéro un européen du cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées pour tous les secteurs, dans 69 pays. Pionnier des services et produits de décarbonation, Atos s’engage à fournir des solutions numériques sécurisées et décarbonées à ses clients. Atos est une SE (Société Européenne) cotée sur Euronext Paris. 

La raison d’être d’Atos est de contribuer à façonner l’espace informationnel. Avec ses compétences et ses services, le Groupe supporte le développement de la connaissance, de l’éducation et de la recherche dans une approche pluriculturelle et contribue au développement de l’excellence scientifique et technologique. Partout dans le monde, Atos permet à ses clients et à ses collaborateurs, et plus généralement au plus grand nombre, de vivre, travailler et progresser durablement et en toute confiance dans l’espace informationnel. 

IQM Quantum Computers{{}}

IQM est un leader mondial dans la conception, la fabrication et la vente d’ordinateurs quantiques supraconducteurs. IQM propose des ordinateurs quantiques full-stack sur site ainsi qu’une plateforme cloud permettant d’y accéder depuis n’importe où dans le monde. Parmi les clients d’IQM, on trouve les principaux centres de supercalcul, des entreprises et des laboratoires de recherche, tous ayant un accès complet aux logiciels et au matériel. IQM compte plus de 280 employés et dispose de bureaux à Espoo, Munich, Paris, Varsovie, Madrid, Singapour et Palo Alto. Plus d’informations : meetiqm.com

Contacts presse : Atos : Constance Arnoux – constance.arnoux@eviden.com – +33 (0)6 44 12 16 35
IQM : press@meetiqm.com – +358504790845    

1- Les activités Eviden regroupent les marques suivantes : AppCentrica, ATHEA, Cloudamize, Cloudreach, Cryptovision, DataSentics, Edifixio, Energy4U, Engage ESM, Evidian, Forensik, IDEAL GRP, In Fidem, Ipsotek, Maven Wave, Profit4SF, SEC Consult, Visual BI, Worldgrid, X-Perion. Eviden est une marque déposée. © Eviden SAS, 2024

IQM_Angers_01

IQM_Angers_01 IQM Spark installé dans l’usine d’Eviden à Angers

Tags Eviden IQM Quantum quantique

Download PDF - Subscribe via RSS Subscribe via ATOM Javascript

Recommended Reading  : October 08, 2024 07:30 ET | Source : Atos International - Eviden launches PQC HSMaaS, a EU sovereign, Post-Quantum Cryptography Hardware Security Module as a Service

Press Release Eviden launches PQC HSMaaS, a EU

Source : https://www.globenewswire.com/news-release/2024/10/09/2960246/0/fr/Eviden-favorise-l-adoption-de-l-informatique-quantique-gr%C3%A2ce-%C3%A0-l-ordinateur-quantique-IQM-Spark.html

{{}}

Retour au début du sommaire

    • {{}}
      Comment Quandela compte produire des ordinateurs quantiques fiables dès 2028 - Marine Protais - 12 Oct 2024, 7:47
      REPORTAGE. La France pourra-t-elle donner naissance au prochain Nvidia du quantique ? Quandela veut y croire. Son atelier d’assemblage à Massy, qui fabrique déjà des ordinateurs quantiques, montera en cadence dès l’année prochaine. La jeune pousse affirme pouvoir atteindre le qubit logique sans erreur dès 2025 et compte produire, dès 2028, des ordinateurs de 50 qubits logiques. De quoi réaliser des calculs informatiques jusqu’ici impossibles.

https://static.latribune.fr/full_width/2459774/ordinateur-quantique-de-quandela.jpg(Crédits : Quandela)

Une poignée d’ingénieurs en charlotte et blouse bleue, quelques postes de travail protégés par des rideaux en plastique. Derrière, on peut voir des enchevêtrements de câbles, des équipements optiques et des microscopes. C’est ici, à Massy, en région parisienne, que le français Quandela assemble les machines qui seront peut-être les ordinateurs du futur : ses premiers ordinateurs quantiques.

L’un d’eux trône dans une salle non loin de l’atelier. Il a la taille d’une petite armoire et ronronne comme un serveur. Dans son dos, des centaines de fibres bleues s’enchevêtrent. Y circulent les précieux photons, dont Quandela se sert pour générer des qubits. Contrairement aux bits classiques qui prennent la valeur de 0 ou 1, les qubits peuvent aussi être dans un état qui superpose les deux. Cela leur permet de traiter des calculs bien plus complexes, en manipulant un grand nombre d’informations en parallèle.

Déjà des milliers d’utilisateurs{{}}

L’ordinateur de Quandela, start-up créée en 2017, impressionne sans doute moins que les machines de Google et IBM, eux aussi lancés depuis plusieurs années dans la course à l’ordinateur quantique. Mais il a l’avantage de déjà permettre à des milliers d’utilisateurs de l’expérimenter via un service cloud.

«  Nos utilisateurs sont un peu partout dans le monde », précise Valérian Giesz, cofondateur et directeur général de Quandela, qui se félicite d’être le premier acteur européen à fournir un tel service. Deux autres ordinateurs de Quandela ont été livrés chez des clients : l’un en France, chez OVHCloud, fin 2023, et l’autre au Canada, au sein d’un centre de données d’Exaion, filiale d’EDF, en 2024.

Là encore, exporter un ordinateur quantique à l’étranger est une première pour un acteur européen. Un nouvel ordinateur sera livré fin 2025 au CEA, dans le cadre d’un contrat EuroHPC d’une valeur de 10 millions d’euros, comprenant l’ordinateur et sa maintenance pendant quatre ans.

Lire aussiIBM parie sur l’informatique quantique pour revenir au premier plan

Devenir le Nvidia du quantique{{}}

Mais les machines déjà en service de la jeune pousse ne sont pour le moment que des prototypes. Elles servent surtout de laboratoire, permettant aux industriels de se former au quantique.

Car la start-up s’est fixée pour objectif de rendre le quantique accessible et réellement utile. Elle a pour cela de grandes ambitions qu’elle vient de dévoiler lors d’une visite de ses locaux, à laquelle La Tribune a participé.

Dès 2025, elle entend produire quatre ordinateurs quantiques par an. À cette même date, elle compte avoir mis au point un qubit logique, c’est-à-dire une unité composée d’un ensemble de qubits physiques corrigés de leurs erreurs. En 2028, elle prévoit de produire des ordinateurs de 50 à 100 qubits logiques à grande échelle, grâce à une nouvelle usine. Surtout, elle pense être capable de réaliser des calculs sans erreurs à cette même date.

Une prouesse à laquelle toutes les entreprises du quantique aspirent, mais qui reste aujourd’hui inatteignable, compte tenu de l’instabilité des ordinateurs quantiques. « Aujourd’hui, nous ne pouvons pas réaliser de calcul qui soit compétitif par rapport à celui d’un ordinateur classique », admet Niccolo Somaschi. Mais le PDG est très confiant et estime que la jeune pousse a ses chances de devenir le « Nvidia » du quantique.

Essaim de taxis volants et planning de la SNCF{{}}

Il assure que les ordinateurs, aujourd’hui à l’état de prototype, pourront bientôt monter en grade et réaliser des calculs qu’un ordinateur classique mettrait une centaine de jours à effectuer.

L’entreprise a déjà commencé à élaborer des cas d’usage avec des entreprises clientes. La SNCF s’intéresse aux ordinateurs de Quandela pour optimiser son planning ferroviaire, tandis que Thales imagine un système permettant d’organiser les trajectoires d’essaims de taxis volants et autonomes.

Parmi les autres applications, moins futuristes : la découverte de nouveaux matériaux. Cet objectif ambitieux, Quandela affirme pouvoir l’atteindre grâce à sa technologie unique, issue des travaux de la physicienne Pascale Senellart-Mardon, cofondatrice de l’entreprise.

Son secret : Quandela crée des qubits en utilisant des particules de lumière, des photons uniques. Ils sont ensuite « envoyés » dans des circuits optiques, où ils subissent diverses manipulations. Enfin, des détecteurs capturent les photons et enregistrent leurs états finaux pour obtenir le résultat du calcul.

Contrairement aux qubits créés à partir de supraconducteurs (comme le font IBM et Google), la lumière permet d’en produire un grand nombre sans grande difficulté, et de les connecter facilement. Le quantique photonique a aussi l’avantage de consommer dix fois moins d’électricité que les autres technologies, notamment parce qu’il nécessite moins de moyens de refroidissement.

En revanche, le défi reste qu’une partie des photons peut se perdre, ce qui risque de compromettre le résultat du calcul. Pour corriger ce problème, Quandela a mis au point une technologie appelée « spin photon », qui combine la lumière et la matière. Concrètement, les photons sont regroupés grâce à une petite structure (un point quantique) pour partager l’information entre eux, de sorte que si un photon est perdu, l’information reste accessible grâce aux autres photons du groupe qui l’ont encodée.

Une start-up qui a grandi grâce aux financements de l’État{{}}

Pour financer cette feuille de route, l’entreprise, qui compte une centaine de salariés, prépare une levée de fonds de plus de 100 millions d’euros. La jeune pousse a par ailleurs largement bénéficié de l’aide de l’État, notamment du dispositif Jeune entreprise innovante (JEI), dont le volet social a été supprimé par le gouvernement dans le cadre de son projet de loi de finances 2025. « Aujourd’hui, nous avons acquis une certaine maturité, et nous pouvons nous en passer. Mais il est dommage que ce dispositif, qui aide les technologies de rupture, s’arrête », regrette Valérian Giesz.

En revanche, l’entreprise bénéficie toujours du Crédit d’impôt recherche (CIR), qui n’est pour le moment pas touché par les décisions budgétaires actuelles, mais pourrait l’être après les débats au Parlement.

Au-delà des financements, Niccolo Somaschi plaide pour la formation des industriels au quantique. « Les Français n’anticipent pas assez le passage au quantique. Aux États-Unis, les entreprises se préparent déjà activement. » Pour lui, dévoiler cette feuille de route est aussi une manière d’inciter les acteurs français à s’y préparer.

Marine Protais

Lire aussi Le Royaume-Uni et l’Allemagne s’associent autour de l’informatique quantique

Lire aussi Clara Chappaz ouvre la porte aux députés pour sauver le volet social du JEI

Partager :

Newsletter - Tech & Médias - Du lundi au vendredi, à 13h, recevez l’essentiel de l’actualité de la tech et des médias

Source : https://www.latribune.fr/technos-medias/informatique/comment-quandela-compte-produire-des-ordinateurs-quantiques-fiables-des-2027-1008721.html

Retour au début du sommaire

    • {{}}
      Informatique quantique et IA : moins compatibles que prévu ? - Le 9 octobre 2024 – Avec Filippo Vicentini – Entretien : propos recueillis par Marianne Guenot - Polytechnique Insights

      Flippo VincentiniFilippo Vicentini Professeur assistant en intelligence artificielle et physique quantique à l’École polytechnique (IP Paris)

En bref :{{}}

  • Il existe une croyance selon laquelle l’informatique quantique pourrait révolutionner l’intelligence artificielle et en particulier le « deep learning ».
  • Cependant, l’informatique quantique ne fera pas forcément progresser l’IA car elle rencontre des difficultés à traiter les informations des réseaux neuronaux et les données volumineuses.
  • Les ordinateurs quantiques sont notamment très lents et seuls des calculs très courts sont effectués sans pannes.
  • L’apprentissage automatique par l’IA est toutefois un outil essentiel pour apprendre à concevoir et à faire fonctionner les ordinateurs quantiques de nos jours.
    Avec un certain nombre d’entreprises technologiques promettant d’être en mesure de résoudre quelques petits problèmes du monde réel au cours des prochaines années, il semblerait que le monde soit à la veille d’une réelle avancée de l’informatique quantique. L’accès à ce type d’informatique quantique a donc suscité beaucoup d’espoir, car il pourrait également transformer l’intelligence artificielle. Mais un consensus de plus en plus large suggère que cela ne soit pas encore à portée de main. 

Que peut-on dire des origines de la croyance selon laquelle l’informatique quantique pourrait révolutionner l’intelligence artificielle ?{{}}

Filippo Vicentini. L’IA est un terme très vaste. Je me concentrerai donc sur le « deep learning » « (l’apprentissage profond), qui est à l’origine des nouvelles technologies telles que les modèles génératifs de texte, d’audio et de vidéo que nous voyons exploser aujourd’hui. L’idée que l’informatique quantique pourrait stimuler le développement de l’IA s’est imposée vers 2018–19. Les premières entreprises proposaient des ordinateurs quantiques bruyants dotés de 1, 2, 3 ou 4 qubits. En raison de leurs limites, ces machines ne pouvaient être utilisées que pour effectuer des calculs plus importants dans le monde réel, alors que c’est là que l’informatique quantique devrait vraiment briller. Au lieu de cela, elles ont été chargées d’exécuter de nombreux sous-programmes « quantiques » courts (communément appelés circuits quantiques), alimentant en retour un algorithme d’optimisation classique. Cette approche est étonnamment similaire à la manière dont les réseaux neuronaux sont formés dans le cadre du deep learning.

À l’époque, on espérait qu’un « circuit quantique » de taille raisonnable serait plus expressif – c’est-à-dire qu’il pourrait présenter des solutions plus complexes à un problème avec moins de ressources qu’un réseau neuronal, grâce à des phénomènes quantiques tels que l’interférence et la superposition. En résumé, cela signifie que les circuits quantiques pourraient permettre aux algorithmes d’apprendre à trouver des corrélations dans les données de manière plus efficace. C’est ainsi qu’est né le domaine de l’apprentissage automatique quantique, et plusieurs chercheurs ont commencé à essayer d’apporter des idées d’un côté comme de l’autre. L’excitation était grande à l’époque.

Plusieurs entreprises ont annoncé l’arrivée d’ordinateurs quantiques plus puissants dans les prochaines années. Cela signifie-t-il que nous devrions nous attendre à un bond en avant dans le domaine de l’IA ?{{}}

Pour faire court, je ne pense pas que l’informatique quantique fera progresser l’IA. Il devient de plus en plus évident que les ordinateurs quantiques seront très utiles pour les applications qui nécessitent des entrées et des sorties limitées, mais une puissance de traitement énorme. Par exemple, pour résoudre des problèmes physiques complexes liés à la supraconductivité ou pour simuler des molécules chimiques. Toutefois, pour tout ce qui concerne les données volumineuses et les réseaux neuronaux, on s’accorde de plus en plus à penser que le jeu n’en vaut peut-être pas la chandelle.

Cette position a récemment été exposée dans un document rédigé1 par Torsten Hoefler, du Centre National Suisse de Calcul, Thomas Häner, d’Amazon, et Matthias Troyer, de Microsoft. Je viens de terminer l’examen des soumissions pour la conférence QTML24 (Quantum Techniques in Machine Learning) et le ton de la communauté de l’apprentissage automatique quantique était à la baisse.

Comment cela se fait-il ?{{}}

De plus en plus d’experts reconnaissent que les ordinateurs quantiques resteront probablement très lents lorsqu’il s’agira d’entrer et de sortir des données. Pour vous donner une idée, nous pensons qu’un ordinateur quantique qui pourrait exister dans cinq ans – si nous sommes optimistes – aura la même vitesse de lecture et d’écriture qu’un ordinateur moyen de 1999–2000.

Les ordinateurs classiques et quantiques sont tous deux bruyants. Par exemple, un bit ou un qubit peut, à un moment donné, passer aléatoirement à 1. Alors que nous pouvons traiter efficacement ce problème dans les ordinateurs classiques, nous ne disposons pas de cette technologie dans les ordinateurs quantiques. Nous estimons qu’il faudra encore au moins 15 ans pour mettre au point des ordinateurs quantiques totalement tolérants aux pannes. Cela signifie que nous ne pouvons effectuer que des calculs très « courts ». 

https://www.polytechnique-insights.com/wp-content/uploads/2024/10/adobestock_638446775-1024x512.jpeg

Par ailleurs, les résultats d’un ordinateur quantique sont probabilistes, ce qui pose des problèmes supplémentaires.

Les ordinateurs classiques donnent un résultat déterministe : faites deux fois la même simulation et vous obtiendrez la même réponse. Mais chaque fois que vous exécutez un algorithme quantique, le résultat sera différent. Le résultat doit être extrait de la distribution des sorties (combien de fois vous voyez des 0 et des 1). Pour reconstruire la distribution avec précision, il faut répéter le calcul un très grand nombre de fois, ce qui augmente alors les frais. C’est une autre raison pour laquelle certains algorithmes semblaient très puissants il y a quelques années, mais il a finalement été démontré qu’ils ne présentaient pas d’avantage systématique par rapport aux algorithmes classiques que nous pouvons déjà exécuter sur des ordinateurs normaux.

Cela signifie-t-il que l’IA et l’informatique quantique seront des cousins éloignés, avec peu de chevauchements ?{{}}

Pas du tout. En fait, mes collègues et moi-même avons récemment lancé une pétition2 pour demander un financement au niveau de l’Union européenne pour l’apprentissage automatique et les sciences quantiques.

L’apprentissage automatique devient rapidement un outil essentiel pour apprendre à concevoir et à faire fonctionner les ordinateurs quantiques de nos jours. Par exemple, chaque appareil est légèrement différent. Les techniques d’apprentissage par renforcement peuvent analyser votre machine et ses caractéristiques particulières afin d’adapter les algorithmes à cet appareil. Une entreprise appelée Q‑CTRL3 a effectué un travail de pionnier dans ce domaine. L’IA quantique de Google4 et Braket d’Amazon5 sont deux d’autres leaders qui exploitent également ces idées.

L’IA pourrait également être très complémentaire de l’informatique quantique. Prenons l’exemple d’Azure Quantum Elements de Microsoft, qui a utilisé une combinaison de Microsoft Azure HPC (High Performance Computing) et des filtres de prédiction des propriétés de l’IA pour réduire une sélection de 32 millions de candidats à un matériau de batterie rechargeable plus efficace, à seulement 18 candidats. Ceux-ci ont été soumis à des algorithmes puissants, bien établis et à forte intensité de traitement mais qui sont assez limités parce qu’ils consomment beaucoup d’énergie et ne peuvent donc pas fonctionner avec des molécules très compliquées. C’est exactement là que l’informatique quantique pourrait intervenir, dans un avenir proche. 

Je pense que l’IA et l’informatique quantique seront des composants différents dans une pile d’outils – complémentaires mais non compatibles. Nous voulons continuer à pousser ces directions et bien d’autres encore en créant une équipe commune appelée « PhiQus » entre l’École Polytechnique (IP Paris) et Inria avec Marc-Olivier Renou et Titouan Carette.

Propos recueillis par Marianne Guenot

1 https://cacm.acm.org/research/disentangling-hype-from-practicality-on-realistically-achieving-quantum-advantage/

2 https://www.openpetition.eu/petition/online/support-the-machine-learning-in-quantum-science-manifesto‑2

3 https://q‑ctrl.com

4 https://quantumai.google

5 https://aws.amazon.com/fr/braket/

Source : https://www.polytechnique-insights.com/tribunes/science/informatique-quantique-et-ia-moins-compatibles-que-prevu/

Retour au début du sommaire

    • {{}}
      Des chercheurs chinois lancent une ’attaque quantique’ pour casser le chiffrement - Par Camille Coirault - Publié le 15 octobre 2024 à 07h01 t-Document ‘clubic.com’
      Une équipe de chercheurs chinois vient de réaliser une percée majeure dans le domaine de l’informatique quantique, en parvenant à fragiliser des systèmes de chiffrement réputés inviolables. Cette avancée pourrait remettre en question nos standards de sécurité actuels.

Les ordinateurs quantiques représenteront un vrai casse-tête à l’avenir pour la sécurité des données. © Dilok Klaisataporn / Shutterstock

Les ordinateurs quantiques représenteront un vrai casse-tête à l’avenir pour la sécurité des données. © Dilok Klaisataporn / Shutterstock

L’équipe dirigée par Wang Chao de l’Université de Shanghai affirme avoir réussi la première attaque quantique efficace contre des méthodes de chiffrement largement utilisées. Bien que des limitations persistent encore ; vous le verrez ; ce progrès prouve que l’informatique quantique progresse à petit pas et que les protocoles de sécurité en vigueur dans les secteurs bancaire et militaire pourraient un jour se retrouver caducs.

Les ordinateurs quantiques actuels sont encore limités en termes de nombre de qubits et de stabilité, mais seront un jour une menace pour la cybersécurité mondiale, tout n’est qu’une question de temps. Surtout lorsqu’on sait qu’il est désormais possible de faire converger IA et informatique quantique.

La cryptographie classique mise à l’épreuve {{}}

Pour mener à bien leur expérimentation, l’équipe a mis à profit un ordinateur quantique de la société canadienne D-Wave Systems pour s’attaquer à des algorithmes cryptographiques basés sur la structure SPN (Substitution-Permutation Network). Cette architecture sous-tend notamment le standard AES (Advanced Encryption Standard), pilier de nombreux systèmes de chiffrement actuels : protocole HTTPS, Virtual Private Network ou Wi-Fi protégé (WPA/WPA2) par exemple.

Les scientifiques ont ciblé spécifiquement les algorithmes Present, Gift-64 et Rectangle. Tous font partie d’une nouvelle génération d’algorithmes de chiffrement symétrique légers, conçus pour être particulièrement adaptés aux systèmes disposant de ressources limitées, comme les cartes à puce, les capteurs IoT ou les appareils mobiles. Si ces derniers n’ont pas encore livré tous leurs secrets, l’étude démontre qu’ils sont désormais à portée des machines quantiques. « C’est la première fois qu’un véritable ordinateur quantique fait peser une menace réelle et substantielle sur plusieurs algorithmes SPN pleinement opérationnels », souligne l’équipe de Wang dans ses conclusions.

Un ordinateur quantique présenté par IBM en 2018. © flowgraph / Shutterstock

Un ordinateur quantique présenté par IBM en 2018. © flowgraph / Shutterstock

Dans les coulisses du casse quantique{{}}

Les chercheurs ont exploité une technique baptisée « recuit quantique ». Ce procédé, inspiré de la métallurgie, permet à l’ordinateur de résoudre rapidement des problèmes mathématiques complexes en tirant parti des propriétés quantiques de la matière. En d’autres termes, le recuit quantique « refroidit » un système quantique pour trouver sa configuration énergétique la plus basse, tout comme on refroidit un métal pour obtenir sa structure cristalline la plus stable.

Le principe s’apparente à la recherche du point le plus bas dans un paysage accidenté. Là où les méthodes classiques doivent explorer chaque sentier, vallée ou colline, l’effet tunnel quantique autorise la machine à traverser directement les obstacles, gagnant ainsi un temps précieux. Grâce à cet effet, la machine quantique peut, en quelque sorte, « creuser un tunnel » à travers les montagnes, lui permettant de passer d’une vallée à une autre sans avoir à suivre le chemin habituel.

Malgré cette avancée remarquable, les chercheurs reconnaissent que la technologie quantique n’en est encore qu’à ses balbutiements. Wang pointe notamment du doigt la sensibilité aux perturbations environnementales, l’immaturité du matériel et la difficulté à concevoir un algorithme d’attaque universel. L’équipe estime quand même que les progrès à venir pourraient déboucher sur des attaques quantiques plus agressives, capables de mettre à mal les systèmes cryptographiques existants les plus robustes.

Source : The Quantum Insider

Camille Coirault

Par Camille Coirault - La tech est mon terrain de jeu, la science ma maîtresse capricieuse et le jeu vidéo (malgré mes overdoses récurrentes de AAA) mon péché mignon. Voici votre serviteur, explorant la jungle technologique armé d’un simple PC et salivant comme un bouledogue devant la moindre innovation. Transformer le jargon technique en prose savoureuse, traquer les news ultimes avec les neurones toujours à balle de caféine : voilà ma mission.

Articles de Camille Coirault Cyber sécuritéActualités High-Tech

Source : https://www.clubic.com/actualite-540494-des-chercheurs-chinois-lancent-une-attaque-quantique-pour-casser-le-chiffrement.html

Retour au début du sommaire

    • {{}}
      La maîtrise du monde quantique franchit un nouveau cap - Par Camille Coirault - Publié le 16 octobre 2024 à 07h23 – Document ‘clubic.com’
      Des ordinateurs quantiques plus stables et performants ? Grâce à des travaux d’une équipe de physiciens sur le comportement inédit des fermions de Majorana de Floquet dans les supraconducteurs, on semble s’en rapprocher doucement. {{}}

© Audio und werbung / Shutterstock

© Audio und werbung / Shutterstock

Après la superattaque de l’équipe de chercheurs chinois, un nouveau progrès vient s’ajouter à la liste des avancées en informatique quantique. Cette dernière nous promet d’atteindre une puissance de calcul inégalée, largement supérieure à celle de l’informatique classique. Le problème, c’est qu’elle se heurte depuis ses débuts à un obstacle majeur : l’instabilité des qubits, ces bits quantiques ultrasensibles aux perturbations extérieures. Cette équipe internationale de chercheurs vient peut-être de trouver la clé pour surmonter ce défi, en explorant les propriétés singulières des fermions de Majorana dans des conditions bien particulières.

Les fermions de Majorana : clé de voûte de l’informatique quantique stable ?{{}}

Au cœur de cette avancée se trouvent les fermions de Majorana, particules subatomiques aux propriétés atypiques. Ces dernières sont des particules théoriques qui ont une particularité très intéressante : elles sont leur propre antiparticule. Cela signifie que, contrairement à d’autres particules (comme par exemple l’électron qui a une antiparticule appelé positron), un fermion de Majorana n’a pas d’équivalent opposé. Découverts dans les années 1930 par le physicien italien Ettore Majorana, ces fermions restent surtout théoriques, bien que certains indices expérimentaux aient été trouvés dans des systèmes de matière condensée (comme les supraconducteurs).

L’équipe, dirigée par Babak Seradjeh, professeur de physique à l’Université de l’Indiana à Bloomington, s’est intéressée à leur comportement dans des supraconducteurs soumis à des stimulations énergétiques cycliques. Cette configuration transforme les fermions de Majorana en fermions de Majorana de Floquet (FMF), dotés d’états distincts influençant le courant électrique de manière unique. Le professeur Seradjeh explique que leurs travaux ont révélé que les FMF ralentissent les oscillations électriques dans certains supraconducteurs, ce qui pourrait fortement renforcer la stabilité des systèmes quantiques.

Graphiques montrant les oscillations du courant Josephson et la densité d’états des fermions de Majorana de Floquet dans des supraconducteurs. © Indiana University

Graphiques agrandis montrant les oscillations du courant Josephson et la densité d’états des fermions de Majorana de Floquet dans des supraconducteurs. © Indiana University

Un nouveau levier pour contrôler l’infiniment petit {{}}

L’étude en question a été révisée et acceptée pour publication dans la revue Physical Review Letters a révélé un autre phénomène capital : la possibilité de contrôler la force (ou l’intensité) du courant électrique qui traverse un supraconducteur (appelé courant Josephson) en modifiant un paramètre particulier du matériau, appelé « potentiel chimique ». Ce potentiel est un paramètre qui détermine la quantité d’énergie nécessaire pour ajouter ou retirer une particule (comme un électron) dans le matériau. En ajustant celui-ci, ils peuvent ainsi influencer le comportement des particules à l’intérieur du supraconducteur, ce qui change la façon dont le courant circule. Cette découverte offre aux chercheurs un nouveau levier pour contrôler plus finement ce dernier.

Si ces travaux demeurent encore théoriques, les simulations informatiques en confirment bien la validité. Ils offrent par conséquent aux chercheurs du monde entier une nouvelle feuille de route pour explorer de nouvelles propriétés contrôlables dans les systèmes quantiques. À terme, ces avancées pourraient mener à la conception d’ordinateurs quantiques non seulement plus rapides, mais aussi plus fiables.

La quête du Graal quantique se poursuit sans relâche, avec en ligne de mire des supraconducteurs fonctionnant à température ambiante, soit environ 20-25° C, bien loin des températures proches du zéro absolu (-273,15° C) actuellement nécessaires. Un tel accomplissement bouleverserait complètement notre paysage technologique de A à Z : énergie, électronique, etc.

Sources : Physical Review Letters, Phys Org

Par Camille Coirault - La tech est mon terrain de jeu, la science ma maîtresse capricieuse et le jeu vidéo (malgré mes overdoses récurrentes de AAA) mon péché mignon. Voici votre serviteur, explorant la jungle technologique armé d’un simple PC et salivant comme un bouledogue devant la moindre innovation. Transformer le jargon technique en prose savoureuse, traquer les news ultimes avec les neurones toujours à balle de caféine : voilà ma mission. Articles de Camille Coirault - Actualités High-Tech

Source : https://www.clubic.com/actualite-540649-la-maitrise-du-monde-quantique-franchit-un-nouveau-cap.html

Retour au début du sommaire

    • {{}}
      Loi de Moore : les illusions fonctionnelles du futurologue – Point de vue issue de ‘100futurs.fr/blog’{{}}
      Loi de Moore et futurologie{{}}

Exprimée en 1965, réévaluée en 1975, la loi de Moore pose (source)

… que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans …/… Cette prédiction s’est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes. (source Intel)

MooreSourceIntel

Voir ce schéma agrandi

Ce sont des variations plus intuitives autour de cette loi que l’on retrouve, en projection, chez de multiples futurologues comme le célèbre Ray Kurzweil récemment embauché par Google.

On trouvera dans cette vidéo, relativement courte (4mn10), doublée en français et diffusée le 22/09/2011 sur Arte, une présentation par Ray Kurzweil lui-même de ses principales hypothèses concernant la singularité technologique et le transhumanisme.

Ces deux scénarios très radicaux s’attachent aux relations futures possibles entre l’humain et la machine, question difficile à ignorer quand on envisage notre avenir, et que l’on retrouve, de ce fait, partout sous différentes formes.

 La loi de Moore comme support : la singularité technologique

 Selon Wikipedia

La singularité technologique (ou simplement la Singularité) est un concept, selon lequel, à partir d’un point hypothétique de son évolution technologique, la civilisation humaine connaîtra une croissance technologique d’un ordre supérieur…/… Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles …/…Le risque en est la perte de pouvoir humain, politique, sur son destin

En gros, le moment arrive où les machines, et seulement elles, seront capables de concevoir des machines plus performantes qu’elles-mêmes. À partir de là, plus de limites pour elles, plus rien à voir pour nous.

Laissons momentanément de côté l’hypothèse selon laquelle la conception d’entités plus complexes que soi-même serait impossible pour l’humain, mais possible pour la machine.

La loi de Moore comme modèle : le transhumanisme{{}}

Le transhumanisme s’appuie également sur des progressions exponentielles, donc indirectement et partiellement sur la loi de Moore (cf vidéo de Kurzweil mentionnée ci-dessus). Il vient en continuité “naturelle“ (si l’on ose dire) de la Singularité, dans la mesure où l’humain pourrait se voir physiquement réincorporés ces ordinateurs à l’intelligence extrahumaine sous forme nano-miniaturisée.

La légitimité de cette approche se nourrit de celle des implants et greffes devenus usuels aujourd’hui.

Pourquoi les futurologues aiment-ils autant la loi de Moore ?{{}}

Outre le très stimulant vertige des exponentielles qu’elle génère, la loi de Moore présente, pour le futurologue, plusieurs avantages assez tangibles.

Elle réunifie les différents futurs autour d’un seul outil. Son histoire en atteste, elle pourrait prédire aussi bien à très courte échéance qu’à l’échelle de plusieurs décennies.

Appuyé sur cette loi mathématique, au moins dans sa forme (courbes, chiffres) à défaut de l’être dans sa construction (elle ne découle que de l’observation), le pronostic du futurologue s’approprie ainsi la légitimité scientifique de la projection à court terme (gage de sérieux important dans un domaine où l’évaluation des prédictions est particulièrement difficile).

La loi de Moore se présente comme un principe autonome et externe au social, une force surdéterminante qui fonctionnerait comme la croissance, le vieillissement voire comme une simili-loi de l’évolution façon Darwin, dynamique d’autant plus inéluctable que déjà à l’oeuvre depuis plusieurs décennies, un peu à la manière du réchauffement climatique et qui nous porterait « mécaniquement » au-delà mêmes des horizons que nous sommes en mesure d’entrevoir.

Enfin, les futurologues aiment la loi de Moore pour toutes les raisons qui leur font aimer les scénarios totalitaires (voire le billet « pourquoi les futurologues ont-ils besoin du totalitarisme ? »).

Le futur de notre société peut-il être aussi simple ?{{}}

Le vrai-faux débat autour de la loi de Moore {{}}

Ainsi le débat sur notre futur se réduirait à celui sur la pérennité de la loi de Moore ?

L’auteur lui-même entrevoyait une limite physique à sa loi autour de 2015, puis de 2017. Il semble être suivi par IBM (publié le 14/04/2009 – source) :

Carl Anderson, un chercheur d’IBM, annonce que la loi de Moore devrait rester valide encore pour une ou deux générations de processeurs haut de gamme par AMD (publié le 8/04/2013 – source) si la fin n’est pas encore pour tout de suite, le fondeur note déjà un ralentissement par la voix de son GPU architect John Gustafson

Alors qu’IBM (publié le 22/03/2013 – source), encore lui, serait sur le point de la relancer grâce à un liquide ionique

On le voit, le débat est loin d’être clos et moyennant quelques glissements sémantiques dans sa formulation, on peut admettre que la loi de Moore survivra longtemps en se déclinant, de façon plus ou moins approximative, autour des nouvelles technologies informatiques (ordinateurs photoniques, quantiques, neuronaux…etc)

Mais la vraie question est-elle bien là ?

La dimension futurologique{{}}

Revenons sur l’attraction que la loi de Moore exerce sur les futurologues.

En première analyse, la réunification des différents futurs autour d’un outil commun apparaît très légitime et intellectuellement très satisfaisante.

Encore faut-il admettre que la pensée du futur soit une pensée du temps… ce qui est très discutable. (voir le billet « la pensée du futur est-elle une pensée du temps »)

Encore faut-il admettre que les différents déterminants de notre futur évoluent tous à la même vitesse … (voir le billet « les deux enfants et les jupitériens »)

Encore faut-il admettre que les évolutions apparentes correspondent aux évolutions réelles (voir le billet « approche du futur : de la métaphore du train à celle du voilier »)

Encore faut-il admettre l’absence d’ambiguïté de la notion de tendance (voir le billet « combien de futurs y a-t-il derrière une tendance ? »).

Les illusions fonctionnelles du futurologue : la question du sens{{}}

L’autre question sur la loi de Moore, assez peu évoquée bien qu’essentielle, consiste à savoir si elle va conserver un sens tout au long de sa durée de vie, quelle que soit celle-ci.

Pour cela, il est nécessaire qu’à tout surplus de puissance informatique puissent être associés des usages socialement pertinents… ce que présume, un peu rapidement, la futurologie dominante.

Or il y a trois grandes familles d’usages socialement non pertinents du point de vue du futurologue

• les performances de laboratoire
• la majorité des utilisations de pointe
• les utilisations idiotes

Dans la seconde famille, on va trouver d’authentiques progrès, généralement utiles, mais qui ne modifie pas, de façon significative, le quotidien du plus grand nombre, comme les simulations sismiques, météorologiques ou autres activités de serveurs.

Dans la troisième catégorie on trouvera le prodige technologique de la télévision, annoncé hier comme l’outil ultime de la démocratisation de la Culture, utilisé aujourd’hui pour diffuser massivement de la pub et des émissions de télé-réalité. Sur la base de ce même principe, le transhumanisme pourrait ne servir qu’à augmenter de façon spectaculaire le niveau moyen des parties de Scrabble, à l’image du Viagra dans un domaine connexe.

Une autre approche des micro-ordinateurs{{}}

La puissance offerte aux premiers micro-ordinateurs était dédiée exclusivement aux travaux de bureautique (d’où la fortune de Microsoft)… et en noir et blanc. La montée en puissance des microprocesseurs a accompagné le développement de cette discipline (arrivée de la couleur, évolution des logiciels…). Les besoins de la bureautique sont satisfaits depuis longtemps et le surplus de puissance offert a progressivement concerné la conception graphique, 3D, vidéo, … en clair, des niches de spécialités soit… de moins en moins de monde.

Lorsque le graphisme et la vidéo ont commencé à concerner le plus grand nombre, ce fut sur internet, où la puissance du microprocesseur n’est plus le seul facteur en cause. Il faut en effet composer avec le débit du réseau, sa disponibilité et son éventuelle saturation ainsi que sur les techniques associées (compression d’image, qualités du navigateur, précautions de sécurité…)

Ainsi, rapportée à son impact social réel, la loi de Moore n’est peut-être plus, tout à fait, ce qu’elle paraissait être au premier abord.

Une analogie pour conclure{{}}

Pour illustrer ce propos, terminons par un regard sur une courbe “cousine“, celle de la vitesse des automobiles évaluée à partir des records homologués (source)

• 1898 – 63 km/h
• 1899 – 100 km/h
• 1902 – 120 km/h
• 1905 – 195 km/h
• 1909 – 202 km/h
• 1924 – 235 km/h
• 1928 – 334 km/h
• ---
• 2010 – 495 km/h

On y constate que, socialement parlant, apparaissent aujourd’hui caducs tous les progrès réalisés depuis … 1902 !

Source : http://100futurs.fr/blog/loi-de-moore-les-illusions-fonctionnelles-du-futurologue/

Retour au début du sommaire

Cela fait plus de 50 ans que le numérique se développe de façon incroyablement dynamique et a changé le monde, grâce à la croissance exponentielle de la puissance de calcul des microprocesseurs. C’est Gordon Moore, co-fondateur d’Intel, qui avait synthétisé cela en une phrase appelée loi de Moore : ’le nombre de transistors dans un semiconducteur double tous les 2 ans’. Il l’a énoncé en 1965, cela a vraiment commencé en 1971, avec la sortie du premier microprocesseur commercial, l’Intel 4004. Au risque de surprendre, il faut regarder les choses en face : la loi de Moore est morte.

C’est ce graphe, issu du livre de référence sur le sujet, Computer Architecture : A Quantitative Approach, qui le démontre :

Un graphique issu du livre dont le titre traduit en français est ’Architecture des ordinateurs : une approche quantitative’. En abscisse, c’est le temps, de 1978 à 2018. En ordonnée, sur une échelle logarithmique, c’est la performance par rapport au VAX-11/780. Les points sont des processeurs, avec chaque fois leur puissance. de 1978 à 1986, la puissance augmente de 25M par an. De 1986 à 2003, de 52% par an. De 2003 à 2011, de 23% par an. De 2011 à 2015, de 12% par ans. Enfin, après 2025, de 3,5% par an. On voit donc que depuis 2003 la loi de Moore est mal en point, car il faut 41% de croissance annuelle pour qu’elle soit respectée et on était à 23%. Depuis 2015, la courbe semble plate.

Voir ce schéma agrandi
*Growth in processor performance over 40 years
*Source : Computer Architecture : A Quantitative Approach, sixth edition - p. 3, figure 1.1

Ce qu’on y voit, c’est que depuis 2015, les processeurs de type x86 (qui équipent les PC et les serveurs et descendent de l’Intel 4004) ne progressent quasiment plus en performance. On a beau les concevoir de façon de plus en plus complexe, avec de plus en plus de transistors, de coeurs, la capacité à traiter des mots de plus en plus longs (4, puis 8 puis 16 puis 32 et enfin 64 bits), la puissance délivrée par ces processeurs a cessé de doubler tous les deux ans — comme le promettait la loi de Moore — depuis bien longtemps.

En un sens, la loi de Moore se vérifie toujours, on continue bien d’augmenter le nombre de transistors dans un processeur, certes à une moindre vitesse, mais le souci c’est que dans les processeurs x86, ça ne se traduit plus par une augmentation de la puissance.

Les lois connexes connaissent aussi l’essoufflement{{}}

Il y a deux lois connexes qui accompagnent la loi de Moore.

La première, c’est que la consommation électrique de chaque transistor doit baisser à chaque génération. Sinon, comme on multiplie ces transistors, la consommation d’un processeur exploserait : il y a 22 millions de fois plus de transistors dans un processeur récent que dans l’Intel 4004, lequel consommait 0,5 W. S’il consommait 22 millions de fois plus, un processeur moderne nécessiterait 11 MW, il faudrait donc une centrale nucléaire pour faire tourner 100 processeurs !

La seconde loi, c’est que le prix unitaire d’un transistor doit aussi baisser à chaque génération. Un Intel 4004 valait 450$ de 2023. Un processeur moderne, comportant 22 millions de fois plus de transistors, vaudrait donc 9’900 milliards de $.

Ces deux lois ont été vérifiées pendant longtemps mais malheureusement, elles se sont essoufflées elles aussi. C’est ainsi que certains processeurs x86 modernes valent plusieurs milliers d’euros et consomment jusqu’à 350 W.

Les implications de la fin de la loi de Moore{{}}

On pourrait paniquer face à la fin de la loi de Moore. Mais en fait, c’est une opportunité !

En effet, depuis que la loi de Moore existe, on a pu valider l’existence de la loi de Wirth, qui stipule que les logiciels ralentissent aussi vite que le matériel accélère. On disait à une époque ’Ce qu’Intel vous donne, Microsoft vous le reprend’.

Les exemples illustrant la loi de Wirth ne manquent pas. C’est ainsi que pour afficher à l’écran un caractère saisi au clavier, un Apple 2 des années 1980 est 5 fois plus rapide qu’un ordinateur moderne sous Windows, que les pages Web sont 150 fois plus lourdes qu’il y a 25 ans.

La raison est toute simple : le temps de développement étant coûteux, on préfère l’utiliser à créer de nouvelles fonctionnalités plutôt que d’optimiser le logiciel existant. On a donc droit à une double peine : le logiciel devient plus gros (car avec plus de fonctionnalités pas toujours utiles) et très rarement optimisé. Mais cela importait peu tant que la loi de Moore se vérifiait : une nouvelle génération d’ordinateurs allait arriver et accélérer les logiciels devenus trop lents. Il suffisait de changer le matériel, même s’il fonctionnait encore très bien, ce qu’on a fait pendant 50 ans.

La fin de la loi de Moore se vérifie dans la vraie vie{{}}

Comme beaucoup d’informaticiens, je fais la maintenance informatique des ordinateurs de toute la famille. C’est ainsi que dans le parc familial, j’ai encore des machines avec des processeurs Intel de 2011 et 2012 qui fonctionnent encore sous MacOS et sont utilisées au quotidien pour des tâches bureautiques. Ici, une copie d’écran alors que je réinstalle les applications pour donner l’ordinateur à un nouvel utilisateur :

Copie d’écran d’un MacBook Air. Deux fenetres sont affichées. La premiere permet l’installation de Firefox. La seconde est la fenêtre A propos de ce Mac quqi affiche que c’est macOS Catalina version 10.15.7. Niveau matériel, la machine date de mi-2012 et dispose d’un processeur 2GHz Core i7 double coeur avec 8 Go de mémoire.

Après 12 et 13 ans respectivement, ces machines donnent encore entière satisfaction et font tourner des logiciels modernes. Il y a quelques années, c’était une situation qui n’était pas envisageable ! Grâce à la fin de la loi de Moore, c’est une réalité.

Faire durer le matériel et réduire l’empreinte environnementale du numérique{{}}

Le fait d’utiliser des ordinateurs pendant 12 ans au lieu de 2 ou 3 comme dans les années 2000 n’est pas anodin. En effet, nous avons tous conscience du changement climatique, du fait qu’il faut réduire rapidement l’empreinte environnementale des activités humaines, y compris celle du numérique.

Or, dans le numérique, l’essentiel de cette empreinte provient de la fabrication du matériel : c’est là qu’il consomme de l’eau, des ressources, beaucoup d’énergie, et émet le plus de gaz à effet de serre. Ce constat est encore plus valable en France où l’électricité qui alimente les ordinateurs provient d’énergies très bas carbone, nucléaire en tête, suivi par les barrages hydrauliques et les autres renouvelables.

Comment innover avec de telles contraintes ?{{}}

Si la loi de Moore est arrêtée pour les processeurs x86, et si on doit réduire l’empreinte environnementale du numérique, peut-on continuer à innover, ou bien sommes-nous contraints à moins faire de numérique ?

Oui, il est possible de continuer à innover tout en conservant le matériel existant et sans en acheter de nouveau. Pour cela, on peut compter sur l’optimisation logicielle.{{}}

En effet, dans toutes les couches des systèmes d’information, il y a des tas de logiciels qui n’ont pas été optimisés du fait de la loi de Wirth. Certains sont peu gourmands et peu utilisés. D’autres sont très mal optimisés et consomment des dizaines, des centaines voire des milliers de fois plus qu’ils ne devraient. J’ai ainsi vu des applications s’accélérer d’un facteur 60 sur une simple optimisation. J’ai vu des systèmes de Machine Learning aller 5400 fois plus vite après une bonne optimisation. Et le meilleur exemple (ou est-ce le pire ?) est celui de Matt Parker, qui a vu son travail corrigé pour tourner... 408 millions de fois plus rapidement !

La loi d’erooM{{}}

Tout comme la loi de Moore était la décision d’Intel d’investir dans de la recherche et du développement et donc dans des usines de production innovantes pour soutenir l’amélioration des semi-conducteurs, on peut décider d’investir dans l’optimisation logicielle. On peut décider d’optimiser le logiciel d’un facteur deux tous les deux ans. Cela signifie que cela libère la moitié de la ressource informatique tous les deux ans. Ainsi, tous les deux ans, on se retrouve avec deux fois plus de ressource que nécessaire. Cette ressource, autrefois gaspillée et maintenant libérée, pourra être dédiée à de nouvelles applications, de nouveaux usages, tout en évitant le renouvellement du matériel, donc en réduisant de façon drastique l’empreinte du numérique. Cela permet aussi aux développeurs de monter en compétences en faisant du travail de meilleure qualité, avec l’intérêt pour eux d’être fier de ce travail.

’erooM’, c’est Moore, à l’envers, mais c’est aussi un ’backronym’ signifiant « Effort Radicalement Organisé d’Optimisation en Masse » (désolé).

La méthodologie Plasma : erooM à l’échelle du système d’information{{}}

Pour déployer la loi d’erooM à l’échelle du système d’information, on peut utiliser une méthodologie appelée PLASMA, pour Portfolio-Led Application Sustainability Management. Elle consiste à passer en revue le portefeuille applicatif du SI avec l’approche APM (Application Portfolio Management) pour déterminer où les investissements en optimisation doivent être réalisés, souvent sur les applications les plus gourmandes en ressources, utilisées à grande échelle et dont la valeur business est la plus importante. À l’inverse, on pourra se préparer au ‘décommissionnement’ des applications les plus gourmandes et les moins porteuses de valeur.

En conclusion{{}}

Tout l’intérêt de la loi d’erooM, déployée au sein d’un SI avec la méthodologie Plasma, c’est d’atteindre trois objectifs qui pouvaient sembler jusqu’à présent contradictoires :

  • L’empreinte environnementale du SI est divisée par 4, ce qui joue un rôle important alors que la réglementation CSRD est en cours de déploiement.
  • Coté satisfaction des équipes de développeurs, chacun est fier de faire du travail de qualité, un point essentiel en termes de marque employeur sur un marché de l’emploi tendu.
  • La DSI, en réduisant son budget matériel, peut allouer une part plus importante aux nouveaux projets (Greenfield) et continuer à innover dans le numérique.
    Nos formations Numérique Responsable - Nos replays OCTO s’engage S’inscrire à la newsletter OCTO -La PresseNewsletterContact

Ce site internet a été pensé et développé avec un objectif d’écoconception. Notre politique des données. Accessibilité : non conforme.

Source : https://blog.octo.com/la-loi-de-moore-est-morte-et-c%27est-une-bonne-nouvelle

Retour au début du sommaire

Un VPN, ou un réseau privé virtuel, est un service qui protège votre connexion Internet et votre vie privée en ligne. Il fonctionne en chiffrant votre connexion Internet, en masquant votre adresse IP et en vous permettant d’utiliser des points d’accès Wi-Fi publics en toute sécurité. Un VPN crée un réseau privé et chiffré au sein du réseau public offrant une couche de sécurité et de respect de la vie privée supplémentaire. Il peut empêcher les cybercriminels de collecter vos données pour les vendre sur le dark Web ou de les utiliser pour des cyberattaques ciblées contre vous.

Lisez la suite pour en savoir plus sur le fonctionnement d’un VPN, les différents types de VPN, les avantages d’en utiliser un et comment il améliore votre posture de cyber sécurité.

Comment fonctionne un VPN ?{{}}

Un VPN fonctionne en reliant de manière sécurisée et anonyme l’utilisateur à un serveur. Sans VPN, un utilisateur se connecte directement à Internet par le biais du fournisseur d’accès à Internet (FAI) sans aucune protection. Cependant, avec un VPN, l’utilisateur se connecte à un client VPN, qui achemine ensuite son trafic Internet vers le serveur VPN par le biais d’une liaison chiffrée appelée tunnel. Ensuite, le serveur VPN transmet le trafic Internet de l’utilisateur à Internet sous l’adresse IP du serveur VPN.

Le routage du trafic Internet par le biais d’un serveur VPN crée un tunnel chiffré qui permet aux utilisateurs de se connecter en toute sécurité au serveur VPN. Il empêche le FAI et tous les autres tiers de voir vos données, car le trafic Internet est chiffré et seuls l’utilisateur et le serveur VPN ont la clé de déchiffrement.

Un VPN masque également l’adresse IP de l’utilisateur, car l’adresse IP du serveur VPN est utilisée pour accéder à Internet au lieu de l’adresse IP réelle de l’utilisateur.

Infographie montrant le fonctionnement d’un VPN.

Voir cette image agrandie

Quels sont les types de VPN ? {{}}

Différents types de services VPN vous relient à un serveur VPN. Un serveur se trouve entre votre appareil et le service Web que vous souhaitez obtenir.

VPN personnel {{}}

Un VPN personnel, également appelé VPN « client » ou « commercial », fait référence à des services destinés à un usage personnel. Les VPN personnels réputés chiffrent votre connexion et masquent votre identité en ligne. Ils vous permettent de modifier votre emplacement géographique, en vous assurant que votre sécurité n’est pas compromise.

VPN d’accès à distance{{}}

Un VPN d’accès à distance, également appelé VPN basé sur le client ou VPN de client à serveur, vous permet de relier votre appareil à un réseau privé en dehors des bureaux de votre entreprise. Le chiffrement VPN est utilisé pour protéger et sécuriser les données lorsqu’elles sont en route vers et depuis le réseau privé.

VPN de site à site{{}}

Un VPN de site à site relie plusieurs réseaux dans différents endroits. Par exemple, si une entreprise a deux emplacements de bureau, un VPN de site à site peut être utilisé pour les relier à l’emplacement du bureau central. Ce type de VPN est souvent utilisé par les entreprises ayant plusieurs emplacements dans différentes parties d’un pays ou du monde.

VPN mobile{{}}

Un VPN mobile peut être la meilleure option si vous n’avez pas de liaison stable sur le même réseau pour la durée de votre session. Avec un VPN mobile, la connexion est maintenue même si vous modifiez le Wi-Fi ou les réseaux cellulaires, perdez votre connexion ou éteignez votre appareil.

Quels sont les avantages de l’utilisation un VPN ?{{}}

Un VPN vous permet d’utiliser Internet en toute sécurité en créant une liaison chiffrée pour vos données, ce qui rend votre activité en ligne introuvable. Voici les avantages de l’utilisation d’un VPN.

Liaison sécurisée{{}}

Si vos données sont transmises par le biais d’un réseau non sécurisé tel que le Wi-Fi public, les cybercriminels peuvent accéder à vos données. Les cybercriminels peuvent utiliser vos données pour envoyer des attaques de phishing ciblées et tenter de voler vos informations personnelles. Ils utilisent généralement des attaques Man-in-the-Middle (MITM) qui s’appuient sur des réseaux non sécurisés ou fabriqués pour intercepter les communications et voler des données sensibles.

Un VPN crée une liaison Internet sécurisée qui est chiffrée, ce qui rend les données transmises illisibles pour toute personne qui tente de vous espionner. Cela vous permet d’accéder en toute sécurité à des données sensibles telles que vos informations financières ou vos identifiants de connexion sans aucun accès non autorisé. Un VPN vous protégera de certains types d’attaques MITM, car votre connexion Internet est chiffrée et les données que vous envoyez ne peuvent pas être vues par les cybercriminels.

Restez anonyme en ligne{{}}

Les sites Web et les applications peuvent suivre votre activité en ligne à votre insu. Les tiers tentent de collecter vos données et de rassembler des informations à votre sujet. Les cybercriminels utilisent ces données collectées pour les vendre sur le dark Web ou envoyer des attaques de phishing ciblées.

Un VPN gardera votre activité en ligne anonyme en masquant votre adresse IP. Avec un VPN, l’adresse IP du serveur VPN est utilisée au lieu de l’adresse IP de l’utilisateur. Cela rend l’activité en ligne de l’utilisateur introuvable et l’empêche d’être collectée par un logiciel publicitaire ou les cybercriminels.

Évitez la limitation de la bande passante{{}}

La limitation de la bande passante se produit lorsque votre vitesse Internet est intentionnellement ralentie par votre FAI ou une autre personne qui maîtrise les performances de votre réseau Wi-Fi, par exemple un administrateur réseau. La limitation de la bande passante se produit généralement en raison d’activités intensives en termes de données telles que les jeux, le streaming et le téléchargement de gros fichiers en ligne. La limitation peut également se produire lorsque vous atteignez votre limite d’utilisation de données.

La limitation de la bande passante étant parfois déclenchée par les sites que vous visitez ou le type d’activité que vous effectuez, si votre FAI ne peut pas voir les données qui partent de votre appareil, il ne peut pas les réduire. Un VPN vous aidera à empêcher la limitation de la bande passante, car il masque votre trafic à votre FAI.

Un VPN me protègera-t-il en ligne ?{{}}

Bien que les VPN protègent votre activité en ligne des utilisateurs non autorisés, vous ne devriez pas vous fier à eux exclusivement pour rester en sécurité en ligne. Les VPN ne fournissent qu’une protection limitée face aux cybercriminels. Bien que les VPN vous protègent de certains types d’attaques MITM, ils ne vous protègent pas de tous. Les VPN ne vous protégeront pas d’autres cybermenaces telles que les logiciels malveillants et l’ingénierie sociale. Vous devez appliquer les meilleures pratiques en matière de cyber sécurité et utiliser des solutions de cyber sécurité supplémentaires pour rester en sécurité en ligne.

Utilisez des mots de passe forts et uniques{{}}

Vous devez utiliser des mots de passe forts et uniques pour protéger vos comptes en ligne. Un VPN peut chiffrer vos données, mais il ne protégera pas vos comptes en ligne des attaques liées aux mots de passe. Un VPN protégé par un mot de passe faible peut être vulnérable aux attaques liées aux mots de passe telles que les attaques par force brute. Les attaques par force brute sont un type de cyberattaque qui effectue des tentatives multiples pour deviner les identifiants de connexion d’un utilisateur.

Vous devez utiliser des mots de passe forts et uniques pour empêcher les cybercriminels de craquer vos mots de passe, surtout le mot de passe de votre VPN. Un mot de passe fort est une combinaison unique d’au moins 16 lettres minuscules et majuscules, de chiffres et de caractères spéciaux. Il ne contient ni informations personnelles, ni série de chiffres ou de lettres séquentielles, ni mots couramment utilisés qu’on trouve dans le dictionnaire.

Avec autant de comptes en ligne, il peut être difficile de se souvenir de tous vos mots de passe forts et uniques. C’est pourquoi vous avez besoin d’un gestionnaire de mot de passe. Un gestionnaire de mot de passe est un outil qui stocke et gère en toute sécurité vos informations personnelles dans un coffre chiffré. Il vous aide à renforcer vos mots de passe en identifiant les mots de passe faibles. Il vous permet également de créer des mots de passe forts en utilisant un générateur de mot de passe intégré. Vous pouvez facilement et en toute sécurité vous connecter à vos comptes en ligne avec un gestionnaire de mot de passe.

Installez un logiciel antivirus{{}}

Bien qu’un VPN crée une liaison sécurisée et masque vos données, il ne vous protégera pas des logiciels malveillants qui infectent votre appareil. Un logiciel malveillant peut être livré à partir de pièces jointes ou de sites Web malveillants. Ces pièces jointes et sites Web malveillants installent un logiciel malveillant sur votre appareil lorsqu’un utilisateur clique dessus. Vous devez avoir un logiciel antivirus pour vous protéger des attaques de logiciels malveillants. Un logiciel antivirus prévient, détecte et supprime les virus et les logiciels malveillants de votre appareil avant qu’ils ne l’infectent.

Activez la MFA{{}}

L’authentification multifacteur (MFA) est une mesure de sécurité qui vous oblige à vérifier votre identité en fournissant des formes d’authentification supplémentaires. Avant de pouvoir accéder à votre compte, vous devez fournir vos identifiants de connexion et une preuve de votre identité, par exemple l’authentification biométrique ou un code unique.

La MFA fournit une couche de sécurité supplémentaire à vos comptes en ligne et empêche les cybercriminels qui ont compromis vos identifiants de connexion d’accéder à vos comptes. Vous devriez activer la MFA sur tous vos comptes en ligne pour les protéger des cybercriminels, surtout sur votre VPN.

Identifiez les tentatives de phishing{{}}

Un VPN ne vous protégera pas des attaques de phishing et d’autres types d’arnaques similaires. Une attaque de phishing est un type de cyberattaque qui tente d’inciter les utilisateurs à révéler leurs informations personnelles. Les cybercriminels envoient des messages avec un lien ou une pièce jointe malveillants dans l’intention de vous faire cliquer dessus. Une fois que vous cliquez sur le lien malveillant, vous êtes dirigé vers un site Web usurpé qui installe un logiciel malveillant ou vous incite à révéler vos informations personnelles.

Vous devez apprendre à identifier les tentatives de phishing pour protéger vos informations personnelles. Les signes des tentatives de phishing à surveiller sont les expéditeurs suspects, les liens ou les pièces jointes non sollicités, les demandes urgentes d’informations sensibles et les erreurs d’orthographe ou de grammaire.

Un VPN seul n’est pas une solution de cyber sécurité{{}}

Vous devriez utiliser un VPN pour créer une liaison sécurisée et rendre votre activité en ligne introuvable pour les autres. Cependant, vous ne devriez pas vous fier à un VPN seul pour vous protéger en ligne. Un VPN ne peut protéger votre trafic Internet que des accès non autorisés. Un VPN ne vous protégera pas des cyberattaques telles que des logiciels malveillants ou des attaques de phishing. Vous devez mettre en œuvre les meilleures pratiques en matière de cyber sécurité et investir dans des solutions de cyber sécurité telles qu’un gestionnaire de mot de passe.

Un gestionnaire de mot de passe vous aidera à protéger vos informations personnelles telles que vos identifiants de connexion, vos numéros de carte bancaire et d’autres informations sensibles des cybercriminels. Il vous aidera à protéger vos informations personnelles afin qu’elles ne tombent entre de mauvaises mains. Ensemble, un VPN et un gestionnaire de mot de passe peuvent protéger vos données en ligne des cybercriminels et vous aider à prévenir les violations de sécurité.

Keeper® Password Manager propose une solution de gestion des mots de passe sécurisée qui protège vos informations personnelles en utilisant le chiffrement Zero-Trust et Zero-Knowledge. Cela garantit que vous seul·e avez accès à vos informations personnelles. Inscrivez-vous pour un essai gratuit pour commencer à protéger vos données en ligne.

Aranza Trevino

Aranza Trevino Aranza Trevino est spécialiste sénior du contenu SEO chez Keeper Security. Elle est une analyste expérimentée des tendances et des données en matière de cybersécurité qui continue d’acquérir des connaissances sur le secteur afin d’éduquer les lecteurs par le biais de son blog. Les blogs d’Aranza ont pour objectif de permettre au public et aux entreprises de mieux comprendre l’importance de la gestion des mots de passe, de la sécurité des mots de passe, et de la protection contre les cybermenaces. Aranza est titulaire d’une licence en marketing numérique de l’université DePaul.

Source : https://www.keepersecurity.com/blog/fr/2022/09/15/what-is-a-vpn/

Retour au début du sommaire Haut du formulaire

Bas du formulaire

    • {{}}
      Les VPN à l’épreuve du futur : cap sur la sécurité quantique - Par Chloé Claessens Spécialiste cybersécurité - Publié le 16 octobre 2024 à 20h15 - Document clubic.com‘

      Chloé Claessens

Les VPN chiffrent nos connexions, mais l’informatique quantique pourrait, à terme, rendre certains algorithmes vulnérables. Comment anticiper ces enjeux et protéger durablement nos données, alors que la cybersécurité s’apprête à évoluer ? {{}}

Les VPN à l’épreuve du futur : cap sur la sécurité quantique © metamorworks / Shutterstock

Les VPN à l’épreuve du futur : cap sur la sécurité quantique © metamorworks / Shutterstock

Quand on parle confidentialité en ligne, on pense souvent VPN, entre autres mesures de protection des données privée. Mais avec l’arrivée des ordinateurs quantiques, encore en développement, des menaces inédites se profilent. Bien que cette technologie soit encore en phase expérimentale, son potentiel impose déjà des défis en matière de cybersécurité, en particulier pour celles et ceux exposés à des risques de surveillance.

Les algorithmes de chiffrement face au calcul quantique {{}}

Actuellement, les VPN reposent essentiellement sur deux types d’algorithmes de chiffrement : AES et RSA.

AES est un algorithme de chiffrement symétrique. À ce titre, il repose sur une clé unique pour chiffrer et déchiffrer les données, partagée entre l’expéditeur et le destinataire. Ce type de chiffrement est rapide et efficace, et n’a encore jamais été cassé par les ordinateurs classiques. AES pourrait rester sûr, même si, en théorie, un ordinateur quantique diviserait par deux le temps nécessaire pour trouver la clé. Ici, la longueur de la clé fait donc la différence : avec une clé suffisamment longue (256 bits), AES ne devrait pas faillir tout de suite.

RSA, quant à lui, est un algorithme de chiffrement asymétrique, basé sur une paire de clés : une publique, pour le chiffrement, et une privée, pour le déchiffrement. RSA repose sur la factorisation de grands nombres – en clair, décomposer un nombre en ses deux facteurs premiers. Actuellement, les ordinateurs classiques n’ont pas la capacité de résoudre ce problème en un temps raisonnable, mais l’informatique quantique change la donne. À titre d’exemple, l’algorithme de Shor, spécialement conçu pour les ordinateurs quantiques, pourrait résoudre très rapidement cette factorisation, rendant RSA vulnérable.

Problème : RSA est souvent utilisé pour communiquer une clé de chiffrement symétrique – au hasard… AES –, y compris par les VPN. Dans ce cas de figure, si RSA tombe, il entraîne AES dans sa chute.

Jugé solide aujourd’hui, RSA ne résisterait pas à l’informatique quantique © Funtap / ShutterstockJ

ugé solide aujourd’hui, RSA ne résisterait pas à l’informatique quantique © Funtap / Shutterstock

Superposition et intrication : la double force des qubits {{}}

Pour comprendre pourquoi l’informatique quantique menace les chiffrements actuels, il faut saisir ses principes de base. Contrairement aux bits des ordinateurs classiques, qui sont soit 0 soit 1, les qubits quantiques peuvent représenter simultanément 0 et 1 grâce à la superposition. Cette capacité permet aux qubits de traiter plusieurs calculs à la fois. À cela s’ajoute l’intrication quantique, un phénomène permettant à des qubits de corréler leur état à d’autres qubits, quelle que soit la distance qui les sépare. Cette combinaison de calculs parallèles et d’interactions immédiates pourrait révolutionner la rapidité des calculs et rendre obsolètes certains des chiffrements actuels, comme RSA, en cassant les clés beaucoup plus rapidement.

Anticiper pour un futur post-quantique {{}}

Bien que l’informatique quantique n’en soit encore qu’à ses balbutiements, anticiper ses retombées est déjà une priorité pour les acteurs de la cybersécurité. L’un des principaux défis consiste à se préparer à des scénarios où les données sensibles d’aujourd’hui pourraient être collectées, stockées, puis déchiffrées une fois que le calcul quantique sera assez puissant. Pour des données particulièrement confidentielles, cette perspective pourrait représenter un vrai risque, et c’est pourquoi la cryptographie post-quantique se développe rapidement. Elle vise à créer des algorithmes capables de résister aux ordinateurs actuels et aux futurs ordinateurs quantiques, garantissant ainsi une continuité dans la sécurité des communications.

Les nouveaux algorithmes doivent pouvoir résister aux ordinateurs classiques et quantiques © Michael Traitov / Shutterstock

Les nouveaux algorithmes doivent pouvoir résister aux ordinateurs classiques et quantiques © Michael Traitov / Shutterstock

Aux États-Unis, le NIST (National Institute of Standards and Technology) a lancé un programme en vue de normaliser ces nouveaux algorithmes. Une étape indispensable pour que les VPN et autres outils liés à la cybersécurité puissent rester résistants à chaque phase d’évolution de l’informatique quantique. Certaines technologies, comme la distribution quantique de clés (QKD), qui utilise les propriétés des photons pour garantir des échanges inviolables, sont également à l’étude. Évidemment, ces technologies encore expérimentales sont coûteuses, et s’adressent principalement à des publics spécifiques, comme des institutions gouvernementales.

Des enjeux actuels pour des internautes ciblés {{}}

Si l’anticipation quantique peut sembler lointaine pour la plupart des utilisateurs et utilisatrices de VPN, elle l’est moins pour une certaine catégorie d’internautes. Les données sensibles, notamment celles des dissidents, activistes, lanceurs d’alerte ou opposants politiques, pourraient être récupérées aujourd’hui pour être déchiffrées dans le futur. Pour ces cibles, se tourner vers des fournisseurs de VPN qui anticipent ces évolutions se pose d’ores et déjà comme une question de sécurité à long terme.

Pour vous et moi, en revanche, la situation est moins préoccupante. Les données collectées aujourd’hui par des VPN grand public seront-elles encore pertinentes ou utiles le jour où l’informatique quantique sera capable de casser les chiffrements classiques ? Probablement pas. Ce qui ne doit pas non plus nous dispenser de rester à l’affût des avancées en matière de sécurité, choisir des services de VPN réputés pour leur confidentialité, et suivre les évolutions technologiques pour continuer à préserver la sécurité de nos informations.

Dans l’immédiat, les enjeux liés à l’informatique quantique et au chiffrement VPN concernent essentiellement des publics très ciblés © A9 STUDIO / Shutterstock

Dans l’immédiat, les enjeux liés à l’informatique quantique et au chiffrement VPN concernent essentiellement des publics très ciblés © A9 STUDIO / Shutterstock

Qui est prêt pour l’informatique quantique ?{{}}

Si, malgré tout, le sujet vous tracasse, quelques fournisseurs de réseau privé virtuel grand public ont déjà commencé à implémenter des technologies post-quantiques. Mullvad propose un chiffrement résistant aux qubits sur WireGuard, ExpressVPN l’a intégré à Lightway, NordVPN vient de l’introduire dans son application Linux, et PureVPN l’a déployé sur certains de ses serveurs. Chez Proton, un système hybride, mêlant cryptographies post-quantique et classique, est déjà dans les tuyaux pour protéger les échanges de mail, et il ne serait pas inenvisageable d’imaginer la techno s’appliquer, un jour, à Proton VPN.

Assurer l’avenir de la cybersécurité {{}}

La perspective d’une cybersécurité post-quantique montre donc l’importance de protéger les données sensibles dès aujourd’hui. Alors que les chercheurs développent de nouvelles méthodes de chiffrement, et que certains acteurs explorent la cryptographie post-quantique, cette transition sera progressive.

À notre échelle, et à celle des services grand public, anticiper les innovations peut faire la différence entre sécurité et vulnérabilité. Pour les VPN, cette transition vers une nouvelle génération de protection ne fait que commencer : même si l’informatique quantique est loin d’être mature, s’y préparer est un impératif stratégique pour un avenir numérique plus sûr.

VPN : quel est le meilleur réseau privé ? Comparatif 2024

À découvrir - VPN : quel est le meilleur réseau privé ? Comparatif 2024 11 octobre 2024 à 15h15 - Comparatifs services

Chloé Claessens

Par Chloé Claessens Spécialiste cybersécurité - Débarquée chez Clubic en 2020 pour parler logiciels, applications et systèmes d’exploitation, je me suis peu à peu spécialisée dans le domaine de la cybersécurité. J’écris essentiellement sur les VPN, mais je couvre aussi les sujets liés à la sécurité des systèmes et des réseaux. Articles de Chloé Claessens

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? - Suivez-nous pour ne rien rater de l’actu tech !

Source : https://www.clubic.com/dossier-540725-les-vpn-a-l-epreuve-du-futur-cap-sur-la-securite-quantique.html

Retour au début du sommaire


    • Des scientifiques ont construit le plus petit ordinateur quantique au monde - Par Brice Louvet, expert espace et sciences24 octobre 2024, 15 h 59 min – Document ‘sciencepost.fr’
      Des scientifiques ont franchi une étape importante dans le domaine de l’informatique quantique. Ils ont en effet mis au point le plus petit ordinateur quantique du monde. De la taille d’un simple ordinateur de bureau, il fonctionne par ailleurs à température ambiante. Ce développement prometteur pourrait révolutionner le monde de l’informatique quantique, longtemps limité par des systèmes encombrants et coûteux à maintenir à des températures extrêmement basses.{{}}

L’ordinateur quantique, comment ça marche ?{{}}

Un ordinateur quantique est une machine qui utilise des qubits pour effectuer des calculs. Contrairement aux bits des ordinateurs classiques, qui ne peuvent être que dans un état binaire (0 ou 1), les qubits utilisent la superposition quantique, ce qui signifie qu’ils peuvent exister simultanément dans plusieurs états. Cela permet à un ordinateur quantique de traiter une énorme quantité de données en parallèle, ce qui rend certains calculs exponentiellement plus rapides que sur un ordinateur classique.

Cependant, le principal obstacle à l’informatique quantique réside dans la complexité des qubits. La plupart des qubits supraconducteurs doivent en effet être maintenus à des températures extrêmement froides, proches du zéro absolu (-273 °C), pour fonctionner correctement. À ces températures, les matériaux supraconducteurs peuvent maintenir un état quantique stable et permettre des calculs puissants, mais cette infrastructure est complexe, coûteuse et prend beaucoup de place. Il faut des machines massives, des réfrigérateurs quantiques spécialisés et énormément d’énergie pour maintenir ces températures.

Une nouvelle approche{{}}

C’est ici que la nouvelle approche développée entre en jeu. Dans le cadre d’une étude récente publiée dans la revue Physical Review Applied, une équipe de chercheurs a construit un ordinateur quantique en utilisant un photon (une particule de lumière) comme qubit. Cette approche, appelée informatique quantique optique, permet de contourner le besoin de refroidissement extrême puisque les photons peuvent maintenir leur état quantique à température ambiante.

Dans le détail, ce nouvel ordinateur quantique fonctionne à l’aide d’un seul photon intégré dans une fibre optique en forme d’anneau. Ce photon unique stocke l’information de manière très spéciale : il utilise 32 intervalles de temps (ou ce que les chercheurs appellent des dimensions). Cela signifie que dans cet ordinateur, un seul photon est capable de traiter et stocker des informations dans 32 états différents simultanément. Cela augmente ainsi considérablement la puissance de traitement de l’ordinateur tout en utilisant un composant extrêmement léger.

Notez qu’il existe déjà des ordinateurs quantiques optiques avec des centaines de photons, mais ils sont difficiles à gérer. Les chercheurs ont donc préféré se concentrer sur la fabrication d’une machine plus petite avec un seul photon stable.

Naturellement, cette expérience n’a pas été simple. Les photons apparaissent en effet de manière aléatoire et sont difficiles à contrôler. Un autre défi a été de stocker suffisamment d’informations à l’intérieur, ce qui nécessite des technologies avancées pour gérer les intervalles de temps de manière précise. Les progrès récents dans les technologies de fibre optique, qui permettent de guider la lumière avec plus de précision, ont été essentiels pour surmonter ces obstacles et rendre cette avancée en informatique quantique optique possible.

Voir la photo agrandie - Crédits : Université nationale Tsing Hua

Pourquoi est-ce important ?{{}}

L’un des plus grands avantages de cette nouvelle machine est sa taille compacte et sa simplicité d’utilisation. Contrairement aux ordinateurs quantiques traditionnels, souvent encombrants et énergivores, cet ordinateur peut fonctionner à température ambiante et a la taille d’un ordinateur de bureau classique. Cela signifie qu’il consomme beaucoup moins d’énergie, coûte moins cher à faire fonctionner et pourrait être utilisé dans des environnements plus variés sans avoir besoin d’infrastructures complexes.

De plus, cette technologie est plus stable que d’autres approches utilisant des qubits à ions piégés qui nécessitent des lasers complexes pour ajuster les états quantiques. Ce système optique représente ainsi une alternative plus pratique et prometteuse pour le futur de l’informatique quantique.

Si cet ordinateur quantique optique est encore en phase de preuve de concept, les chercheurs ont déjà des ambitions pour le développer davantage. Ils cherchent à augmenter la capacité de stockage d’un photon unique afin de permettre à la machine de traiter des calculs encore plus complexes. Cette technologie pourrait à terme rivaliser avec les systèmes quantiques plus grands et offrir des solutions plus accessibles pour les chercheurs et les industries.

Un autre aspect prometteur est que ce système optique pourrait s’intégrer facilement dans les réseaux de communication quantique de demain. Les ordinateurs qui utilisent des photons pourraient se connecter à des systèmes qui emploient déjà la lumière pour transmettre des données, ce qui faciliterait ainsi l’intégration avec les infrastructures existantes.

Magazine de vulgarisation scientifique, Sciencepost vous dévoile chaque jour les dernières découvertes et avancées en termes de sciences et nouvelles technologies.

Source : https://sciencepost.fr/plus-petit-ordinateur-quantique-au-monde-construit/

Retour au début du sommaire

    • {{}}
      Sciences : bientôt une « Maison du Quantique » à Montpellier - Par Gil Martin Publié le 24 oct. 2024 à 17h26 - Document ‘actu.fr/occitanie/montpellier’
      La Région Occitanie fait partie des 5 régions retenues en France pour accueillir une Maison du Quantique. Deux sites sont prévus, à Toulouse et Montpellier.

Le supercalculateur du Très Grand Centre de Calcul (TGCC) du CEA, à Bruyères-le-Châtel (Essonne).Photo agrandie

Le supercalculateur du Très Grand Centre de Calcul (TGCC) du CEA, à Bruyères-le-Châtel (Essonne). (©Actu Essonne : T.F.)

Porté par l’Institut National Polytechnique de Toulouse et la Région Occitanie, le projet occitan a été retenu par le jury de l’appel à projet HQI (pour France Hybrid HPC Quantum Initiative) qui vise à faire émerger, en France, des incubateurs à travers tout le territoire pour le développement de projets industriels et de recherche en calcul quantique hybride.

« Grande révolution technologique »{{}}

C’est AD’OCC, l’agence de développement économique de la Région, qui confirme l’information, précisant que le quantique pourrait bien être « la plus grande révolution technologique du 21ème siècle ». En théorie, le calcul quantique peut résoudre des problèmes difficiles, voire impossibles à traiter sur des ordinateurs classiques. « Le calcul quantique devrait permettre de résoudre certains problèmes dont la complexité est hors de portée des supercalculateurs les plus puissants », explique HQI.

« Dans les prochaines décennies, le quantique pourrait contribuer à des révolutions technologiques déterminantes dans de nombreux domaines tels que le développement de nouveaux traitements médicaux, la modélisation d’agents infectieux, la captation de l’énergie solaire ou du CO2, le développement de nouveaux matériaux, ou encore l’optimisation des transports (maritime, aérien, routier) ».

Un Plan national Quantique{{}}

Initialement, l’état a lancé Le 4 janvier 2022 un Plan National Quantique, décliné dans le projet HQI qui associe une plateforme nationale de calcul hybride couplant supercalculateurs et accélérateurs quantiques, et un programme de recherche académique et industriel. La plateforme nationale est aujourd’hui organisée autour du supercalculateur Joliot Curie, un équipement unique dans le pays installé depuis 2017 au sein du Très Grand Centre de Calcul (TGCC) du CEA, à Bruyères-le-Châtel (Essonne).

Montpellier dans la boucle{{}}

L’appel à projet lancé par HQI visait à trouver des partenaires dans l’Hexagone pouvant s’intégrer dans le projet national via la mise en place d’un réseau de Maisons du Quantique qui seront cofinancées pendant trois années « et bénéficieront d’une interface privilégiée avec l’initiative HQI et ses partenaires, notamment via l’accès à la plateforme et aux services associés, à un programme de recherche et à une mise en réseau internationale », précise HQI.

HQI a retenu 5 sites en France, dont l’Occitanie où la future Maison du Quantique reposera sur deux sites : l’un Toulouse, l’autre à Montpellier où la recherche dans ce domaine n’est pas une première : depuis 2018, IBM y dispose déjà d’un pôle dédié à la R&D sur le calcul quantique… Les 4 autres sites retenus : Auvergne-Rhône-Alpes (Grenoble), Grand Est (Strasbourg, Reims et Troyes), Île-de-France (Paris, Saclay et Saint-Germain-en-Laye) et Nouvelle Aquitaine (Bordeaux et Limoges).

La Maison du Quantique Occitanie : en savoir +
Le consortium occitan est porté par Toulouse INP, et regroupe l’Université de Montpellier, l’INSA de Toulouse, les laboratoires IRIT, ISDM, ICGM, les centres de calcul CERFACS, CALMIP, ISDM-Mes, les industriels SLB, Eviden-BULL, les SATT AxLR et TTT, les starts up Qualitative Computing et Qraftware, et AD’OCC, l’agence de développement économique de la Région Occitanie.
La Maison du Quantique Occitanie propose d’accompagner les industriels et laboratoires au développement d’algorithmes sur des cas d’usage métiers et d’accueillir les communautés à la fois à Toulouse, au sein de la Cité de Toulouse, et à Montpellier, à la Cité de l’Économie et des Métiers de Demain (CEMD).

À lire aussi : Montpellier – Chine : Michaël Delafosse à Shanghai pour séduire Health&Biotech

 Actu.fr Qui sommes-nous ? Contact

© 2024 actu.fr, détenu et coexploité par Publihebdos et ses filiales.
Hébergement dédié : Groupe DIS, Digital Ad Trust et ACPM. Conception et design : Datagif.

Source : https://actu.fr/occitanie/montpellier_34172/sciences-bientot-une-maison-du-quantique-a-montpellier_61778919.html

Retour au début du sommaire

    • {{}}
      Les Enjeux de Demain : Quantique, la révolution est en marche - 23/10/2024 - Le 23/10/2024 à 10:19 | Durée : 4:1 – Entretien BFMTV.com
      Ce mercredi 23 octobre 2024, Jean-Christophe Gougeon, responsable sectoriel technologies quantiques, HPC, Cloud et IA chez Bpifrance, s’est penché sur la révolution que l’ordinateur quantique apportera sur certains secteurs en termes de connaissance, dans ‘Les Enjeux de Demain’, présenté par Raphaëlle Duchemin. Les Enjeux de Demain

Sur le même sujet :

Les Enjeux de Demain : L’usine de demain sera décarbonée - 09/104:15 Les Enjeux de Demain : L’usine de demain sera décarbonée - 09/10

Les Enjeux de Demain : Véhicules autonomes, les obstacles à surmonter - 18/093:34 Les Enjeux de Demain : Véhicules autonomes, les obstacles à surmonter - 18/09

Les Enjeux de Demain : Les métaux indispensables à la transition - 19/063:33 Les Enjeux de Demain : Les métaux indispensables à la transition - 19/06

Les Enjeux de Demain : Le digital dans la recherche thérapeutique - 15/053:42 Les Enjeux de Demain : Le digital dans la recherche thérapeutique - 15/05

Les Enjeux de Demain : SMR, le nouveau paradigme du nucléaire - 17/043:28 Les Enjeux de Demain : SMR, le nouveau paradigme du

Source : https://www.bfmtv.com/economie/replay-emissions/les-enjeux-de-demain/les-enjeux-de-demain-quantique-la-revolution-est-en-marche-23-10_VN-202410230362.html

Retour au début du sommaire

    • {{}}
      Des chercheurs chinois affirment avoir cassé le cryptage RSA grâce à un ordinateur quantique - Par Brice Louvet, expert espace et sciences23 octobre 2024, 16 h 43 min – Document ‘sciencepost.fr’

      cryptage RSA ordinateur quantique

Crédits : ArtemisDiana/istock

Une équipe chinoise annonce avoir pu casser le cryptage RSA, une méthode largement utilisée pour protéger les communications et données sensibles sur Internet, grâce à un ordinateur quantique développé par la société D-Wave. Cette nouvelle a fait sensation dans la communauté scientifique et technologique, car elle renforce l’idée que les ordinateurs quantiques pourraient un jour rendre obsolètes les systèmes de cryptage actuels. {{}}

Qu’est-ce que le cryptage RSA ?{{}}

Le cryptage RSA est un système de sécurité informatique qui repose sur un principe mathématique très difficile à résoudre sans la clé appropriée. Le système, qui tire son nom de ses inventeurs (Ron Rivest, Adi Shamir et Leonard Adleman), utilise deux clés différentes : une clé publique pour chiffrer les données et une clé privée pour les déchiffrer. Cette approche asymétrique est si complexe que même les ordinateurs les plus puissants d’aujourd’hui prendraient des millions d’années pour le déchiffrer sans connaître la clé privée. Pour cette raison, Il s’agit de l’une des méthodes de cryptage les plus couramment utilisées pour sécuriser les communications, les transactions bancaires et d’autres types de données sensibles.

Qu’ont réalisé les chercheurs chinois ?{{}}

Des chercheurs chinois ont annoncé avoir utilisé un ordinateur quantique D-Wave Advantage, équipé de 5.760 qubits, pour casser un message chiffré avec RSA. Pour ce faire, ils ont utilisé une technique appelée « recuit quantique » qui profite des propriétés particulières des qubits, les unités de base des ordinateurs quantiques. Contrairement aux ordinateurs classiques qui résolvent des problèmes étape par étape, le recuit quantique permet à la machine de trouver plus rapidement une solution en testant plusieurs possibilités en même temps, ce qui accélère la résolution du problème.

Ce n’est pas la première fois que des chercheurs utilisent cette méthode, mais c’est l’une des premières applications réussies sur un cryptage RSA, ce qui en fait une avancée notable dans le domaine de l’informatique quantique.

Cependant, dans cette expérience, ils ont décrypté un cryptage RSA basé sur un entier de seulement 50 bits. En d’autres termes, le niveau de complexité de ce cryptage était bien en dessous des standards d’aujourd’hui qui utilisent généralement des clés de 1.024 à 2.048 bits. Ces dernières sont beaucoup plus difficiles à casser et dépassent largement les capacités actuelles des ordinateurs quantiques.

cryptage RSA ordinateur quantique

Crédits : ArtemisDiana/istock

Un exploit limité, mais significatif{{}}

Bien que cette avancée ne représente pas une menace immédiate pour la sécurité des communications actuelles, elle est considérée comme une preuve de concept. En cassant un cryptage RSA plus simple, les chercheurs chinois ont en effet montré que les ordinateurs quantiques pourraient parvenir un jour à briser des cryptages beaucoup plus complexes.

Les prochaines étapes viseront à appliquer cette méthode sur des entiers plus grands, tels que 128 ou 256 bits. Si les ordinateurs quantiques arrivent un jour à casser des clés RSA de cette taille, cela signifierait que les technologies de cryptage actuelles ne seraient plus suffisantes pour protéger les données.

En réponse à cette menace potentielle, des chercheurs du monde entier travaillent cependant déjà sur des algorithmes de cryptographie « post-quantique ». Ces algorithmes sont conçus pour résister aux attaques d’ordinateurs quantiques, garantissant ainsi la sécurité des données même dans un futur où les machines quantiques seront courantes.

Magazine de vulgarisation scientifique, Sciencepost vous dévoile chaque jour les dernières découvertes et avancées en termes de sciences et nouvelles technologies.

Bas du formulaire

Source : https://sciencepost.fr/casse-cryptage-rsa-ordinateur-quantique/

Retour au début du sommaire

    • {{}}
      Défense et technologies quantiques : des avancées qui menacent les droits humains ? - Par Camille Coirault Publié le 23 octobre 2024 à 07h14 – Document ‘clubic.com’
      Dans l’arsenal des grandes puissances militaires, une nouvelle arme risque de bouleverser les équilibres géopolitiques : la technologie quantique. Si celle-ci promet de révolutionner les capacités de défense des nations, elle soulève aussi des questions éthiques fondamentales sur la préservation des droits humains et des libertés individuelles.

L’intérêt pour les technologies quantiques est immense et partagé par les armées des grandes puissances mondiales. © Melnikov Dmitriy / ShutterstockImage agrandie

L’intérêt pour les technologies quantiques est immense et partagé par les armées des grandes puissances mondiales. © Melnikov Dmitriy / Shutterstock

L’entrée fracassante des technologies quantiques dans le domaine militaire n’est plus de l’ordre de la science-fiction. Le Département américain de la Défense a franchi un pas décisif en 2023, en injectant 45 millions de dollars dans l’intégration de composants quantiques à ses systèmes d’armement. Cette initiative s’inscrit dans une dynamique mondiale où chaque nation cherche à prendre l’avantage.

La course à l’armement et à la défense quantique est bel et bien lancée. Le Royaume-Uni expérimente des systèmes de navigation inviolables et l’Inde développe activement le cryptage quantique de ses communications militaires. La Chine, de son côté, a prouvé il y a moins de 10 jours qu’elle n’était pas en retard dans le domaine et affirme désormais avoir conçu un radar quantique capable de percer les technologies furtives existantes. Quelles seront les implications des technologies quantiques pour la cyberguerre et surtout pour nous autres, citoyens ?

La face sombre du miracle quantique{{}}

Au-delà de l’aspect purement technologique, des zones d’ombre émergent aussi abords de cette course. Les ordinateurs quantiques, par leur puissance de calcul phénoménale, permettront certainement un jour la conception de nouvelles armes chimiques et biologiques. Plus inquiétant encore, leur capacité à briser les systèmes de cryptage actuels est une menace potentielle pour la sécurité des communications mondiales.

Les capteurs quantiques (instruments de mesure ultra-sensibles exploitant les propriétés de la physique quantique pour détecter des signaux extrêmement faibles), d’une précision démentielle, pourraient se changer en outils de contrôle social potentiellement absolus.

Les experts appellent à une gouvernance anticipée des risques plutôt qu’à une régulation tardive. La neutralité technologique n’a jamais existé et n’existera jamais : chaque choix technique porte en germe des implications éthiques qu’il convient d’évaluer dès la conception. Nous en faisons déjà les frais aujourd’hui avec l’intelligence artificielle, dont la gouvernance peine aujourd’hui à rattraper son développement, devrait nous servir d’avertissement (Le Pacte sur l’IA de l’UEvient à peine d’être signé, et ce n’est qu’un exemple).

La militarisation des technologies quantiques pourrait conduire à une nouvelle course aux armements, avec des conséquences désastreuses pour la stabilité internationale et la sécurité humaine. © The KonG / ShutterstockImage agrandie

La militarisation des technologies quantiques pourrait conduire à une nouvelle course aux armements, avec des conséquences désastreuses pour la stabilité internationale et la sécurité humaine. © The KonG / Shutterstock

L’urgence d’un cadre éthique international{{}}

Face à ces enjeux qui pourraient rapidement dépasser nos capacités de régulation, les experts préconisent la création d’un organisme de surveillance indépendant à l’instar de l’Agence internationale de l’énergie atomique. Cette instance veillerait à l’application de six principes directeurs élaborés pour encadrer le développement des technologies quantiques militaires. Analyser le spectre éthique complet, de la genèse d’une technologie quantique x à sa mise en œuvre, afin d’éviter tout débordement : voilà les lignes de ce cadre. Celui-ci nécessitera une approche pluridisciplinaire, associant physiciens, ingénieurs, experts en défense, juristes spécialisés en droit humanitaire et éthiciens.

Les chercheurs proposent une classification des risques en trois catégories : les « known knowns » (l’impact sur la vie privée et la surveillance de masse), les « known unknowns » (risques liés à la chaîne d’approvisionnement des technologies quantiques), et les « unknown unknowns » (les plus difficiles à prédire, qui se révéleront avec la maturation des technologies). En catégorisant les risques et les opportunités de cette manière, nous pourrions construire une gouvernance éthique plus robuste et mieux adaptée à un contexte spécifique.

L’équilibre entre l’innovation et l’éthique{{}}

Le type de gouvernance proposée ici ne vise pas à freiner l’innovation, mais plutôt à l’orienter vers des applications bénéfiques. Les technologies quantiques, comme l’énergie nucléaire avant elles, présentent un double usage : militaire et civil. Les experts encouragent les organismes de défense à soutenir aussi les applications civiles dans des domaines comme la santé, l’agriculture ou la lutte contre le réchauffement climatique.

La mise en place d’une telle gouvernance exigera forcément des investissements conséquents en temps, en financement et en ressources humaines. Certains pourraient être tentés de différer ces efforts, mais comme le soulignent les chercheurs, le coût de la correction des erreurs dépasserait largement celui de leur prévention.

Le paysage quantique mute très rapidement, et l’anticipation est l’une des seuls clés pour qu’il se développe de manière responsable. La course aux armements quantiques ne doit pas se faire au détriment des valeurs fondamentales de nos sociétés et de leur équilibre comme ce fut le cas pour le nucléaire. La course à cette technologie a mis en péril la sécurité mondiale et a contribué à une méfiance généralisée entre les nations pendant 50 ans à partir de la fin de la Seconde Guerre mondiale. Nous avons aujourd’hui les moyens de ne pas répéter les mêmes erreurs.

Source : Nature

Camille CoiraultPar Camille Coirault - La tech est mon terrain de jeu, la science ma maîtresse capricieuse et le jeu vidéo (malgré mes overdoses récurrentes de AAA) mon péché mignon. Voici votre serviteur, explorant la jungle technologique armé d’un simple PC et salivant comme un bouledogue devant la moindre innovation. Transformer le jargon technique en prose savoureuse, traquer les news ultimes avec les neurones toujours à balle de caféine : voilà ma mission. Articles de Camille Coirault - Cyberguerre

Source : https://www.clubic.com/actualite-541370-defense-et-technologies-quantiques-des-avancees-qui-menacent-les-droits-humains.html

Retour au début du sommaire

Retour au début du sommaire

Retour au début de l’introduction

Retour au début du Préambule

Retour au début du dossier


Collecte de documents et agencement, traduction, [compléments] et intégration de liens hypertextes par Jacques HALLARD, Ingénieur CNAM, consultant indépendant – 27/10/2024

Site ISIAS = Introduire les Sciences et les Intégrer dans des Alternatives Sociétales

Site : https://isias.info/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS Quantique Informatique.12.docx

Mis en ligne par le co-rédacteur Pascal Paquin via Yonnelautre.fr : un site des alternatives, d’éducation populaire, un site inter-associatif, coopératif, gratuit, sans publicité, sans subvention, indépendant de tout parti, un site sans Facebook, Google+ ou autres GAFA, sans mouchard, sans cookie tracker, sans fichage, et à empreinte numérique réduite, un site entièrement géré sous Linux et avec l’électricité d’Énercoop , géré par Yonne Lautre : https://yonnelautre.fr

Yonnelautre.fr utilise le logiciel libre SPIP et le squelette Koinós. Pour s’inscrire à nos lettres d’info > https://yonnelautre.fr/spip.php?breve103

http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931

— -

Portfolio