Hewlett Packard Enterprise présente un projet de recherche sur les superordinateurs qui permet d'obtenir l'avantage quantique

26 JANVIER, 2022 • COMMUNIQUE DE PRESSE

DANS CET ARTICLE

  • Une nouvelle recherche met en évidence la valeur des superordinateurs en tant que plateforme clé pour tester et évaluer les avantages informatiques dans le cadre du développement de la technologie quantique
  • Les résultats démontrent comment les superordinateurs, associés à des algorithmes optimisés, peuvent comparer avec précision les avantages de calcul entre les ordinateurs classiques et les ordinateurs quantiques

Dans une recherche publiée aujourd'hui dans Science Advances, HPE améliore la prédiction selon laquelle il faudra 600 millions d'années pour simuler une équation quantique sur un superordinateur en réduisant considérablement le temps avec une nouvelle prédiction de 73 jours

HOUSTON, 26 Janvier, 2022 – Hewlett Packard Enterprise (NYSE: HPE) a annoncé aujourd'hui une nouvelle recherche qui démontre comment les superordinateurs peuvent être utilisés pour tester et étalonner les performances de calcul pour la communauté de l'informatique quantique, redéfinissant ainsi les allégations de performances théoriques que les futurs ordinateurs quantiques fourniront.  Les résultats de la recherche révèlent comment un problème, appelé échantillonnage du boson gaussien (GBS), qui est considéré comme un domaine de l'informatique quantique, a été réalisé en utilisant le calcul haute performance (HPC), ou supercalculateur, élargissant ainsi la limite des problèmes que les supercalculateurs peuvent traiter.

Dans cette nouvelle recherche, des membres de l'équipe du HPC and AI Business Group de HPE et de Hewlett Packard Labs, la branche R&D de HPE, ont collaboré avec l'université de Bristol et l'Imperial College London pour améliorer une prédiction antérieure selon laquelle il faudrait 600 millions d'années pour simuler un problème d'échantillonnage du boson gaussien, sur le plus grand superordinateur du monde. Après avoir développé un algorithme et l'avoir appliqué à une simulation du problème de l'échantillonnage du boson gaussien qui a fonctionné sur des superordinateurs plus petits et d'ancienne génération construits par HPE, les équipes ont utilisé les résultats de la simulation pour prédire qu'il ne faudrait que 73 jours sur un superordinateur encore plus rapide1. Le nouvel algorithme représente une accélération d'un milliard de fois par rapport aux approches précédentes pour les ordinateurs classiques.

"L'étude publiée d'aujourd'hui, fruit d'une solide collaboration entre les équipes de HPE, de l'Université de Bristol et de l'Imperial College London, s'est inspirée de la pointe du développement de l'informatique quantique pour élargir la contribution des superordinateurs, lorsqu'ils sont associés à des algorithmes optimisés, pour comparer avec précision l'avantage de calcul entre les ordinateurs classiques et les ordinateurs quantiques, et établir de nouvelles normes de performance", a déclaré Justin Hotard, vice-président senior et directeur général, HPC et AI chez HPE. "Nous sommes impatients de poursuivre cet effort en nous associant à la communauté de l'informatique quantique et en intégrant la gamme de supercalculateurs Cray de HPE à d'autres technologies permettant de faire avancer le voyage vers le développement des futurs ordinateurs quantiques."

Une nouvelle recherche dévoile les frontières élargies de la puissance de calcul des superordinateurs

La dernière expérience montre la valeur croissante des superordinateurs et la façon dont ils peuvent être utilisés pour tester et soutenir les expériences quantiques actuelles ou à court terme qui contribuent à accélérer la pertinence des ordinateurs quantiques2. La recherche prévoit également qu'à mesure que les superordinateurs continuent à progresser, comme avec les superordinateurs exascale à venir qui sont jusqu'à 10 fois plus rapides que certains des superordinateurs les plus puissants d'aujourd'hui, les résultats de l'informatique quantique peuvent être vérifiés dans des fenêtres de temps encore plus courtes, de quelques mois à quelques semaines sur les systèmes plus rapides.

Le dernier résultat de la recherche de HPE est un exemple probant de la valeur durable du HPC et du potentiel de nouveaux algorithmes dans l'informatique classique et quantique. HPE et ses équipes ont été inspirés par les affirmations d'un article précédent, intitulé Quantum Computational Advantage Using Photons, de l'Université des sciences et technologies de Chine (USTC). Dans cet article, les chercheurs de l'USTC partagent les résultats d'une expérience impliquant un état quantique de la lumière, mesuré à l'aide de détecteurs de photons uniques dans un protocole appelé "Gaussian Boson Sampling" (GBS). Selon l'USTC, la simulation du GBS, qu'ils ont réalisée en 200 secondes sur un ordinateur quantique photonique à usage unique, prendrait 600 millions d'années à simuler sur le plus grand superordinateur du monde.

Les chercheurs de HPE, de l'université de Bristol et de l'Imperial College London ont appliqué un algorithme qui calcule les probabilités exactes de détection de photons corrélés pour les simulations GBS. Les chercheurs ont d'abord exécuté les simulations sur le superordinateur Isambard du GW4 et sur un superordinateur HPE interne. Les simulations sur ces systèmes ont ensuite été utilisées pour prédire qu'il faudrait environ 73 jours pour les exécuter sur le superordinateur le plus rapide d'aujourd'hui, et environ trois semaines sur un superordinateur exascale. L'expérience et les résultats ont été publiés dans un article paru aujourd'hui, The Boundary of Quantum Advantage in Gaussian Boson Sampling.

HPE contribue à la communauté de l'informatique quantique avec des benchmarks et des avancées dans le domaine du calcul intensif

Pour aider à évaluer l'avantage de calcul et identifier quand et où les futurs ordinateurs quantiques apporteront de la plus-value, HPE explore continuellement les moyens d'optimiser les systèmes de calcul haute performance, ou superordinateurs, pour valider des expériences de plus en plus exigeantes et accélérer le temps de compréhension. En utilisant des architectures hétérogènes à travers les CPU, les GPU, les FPGA et d'autres types d'accélérateurs, en plus de l'intégration de logiciels spécialisés et de capacités de mise en réseau, HPE continue à faire progresser le calcul haute performance qui est la solution la plus efficace à ce jour pour résoudre les problèmes les plus difficiles au monde, comme le diagnostic et le traitement du cancer, la conception de médicaments, les énergies renouvelables, la viabilité et l'exploitation de la puissance de la mécanique quantique pour le calcul.

Pour en apprendre davantage sur le vaste portefeuille de solutions HPC de HPE et sur la façon dont il est utilisé dans diverses industries, veuillez consulter le site : https://www.hpe.com/us/en/compute/hpc

À propos de Hewlett Packard Enterprise

Hewlett Packard Enterprise est une entreprise mondiale proposant des plateformes allant de la périphérie du réseau au cloud (« Edge to Cloud »), sous forme de service, pour aider ses clients à obtenir plus rapidement des résultats en libérant partout la valeur de toutes leurs données. S’appuyant sur des décennies consacrées à réinventer le futur et à innover afin de faire progresser nos modes de vie et de travail, HPE commercialise des technologies innovantes, ouvertes et intelligentes – incluant les services cloud, le calcul traditionnel et haute performance, l'IA, la périphérie intelligente, les logiciels et le stockage – offrant une expérience homogène dans tous les environnements cloud et périphériques, pour permettre à ses clients de développer de nouveaux modèles économiques et modes d’engagement et d’améliorer leur performance opérationnelle. Pour plus d'informations, visitez : www.hpe.com.

 

1 Prediction of 73 hours to solve a Gaussian Boson Sampling simulation was estimated for the Fugaku supercomputer

2 Near-term quantum experiments are based on today’s available quantum computers which use noisy intermediate-scale quantum (NISQ) devices. NISQ devices are the leading quantum processors that contain or will contain nearly 50 to a few hundred qubits, but it is an open research question whether they will be advanced enough to outperform today’s most powerful supercomputers on enterprise-relevant workloads.”