Avec sa puce Core i9 18 coeurs, Intel relance la bataille contre AMD

Bataille sans merci en vue entre Intel et AMD avec la multiplication du nombre de coeurs dans les processeurs haut de gamme : 18 pour le Core i9 X-series du premier et 16 pour le Ryzen Threadripper du second. D’autres puces Core i9-X series seront également dévoilées, obligeant AMD à livrer les versions 10, 12 et 14 coeurs de ses puces Threadripper, ainsi que leurs prix.

Avec 18 coeurs, le Core i9-7980XE est présenté par Intel comme la première puce pour PC exaflopique. (Crédit Intel)

Aujourd’hui, lors du Computex qui se tient du 30 mai au 3 juin à Taipei, le fondeur annoncera sa puce Core i9 (18 cœurs/ 36 threads) en réponse à la puce  (16 cœurs/32 threads) d’AMD. Intel livrera sa puce Core i9 Extreme Édition i9-7980XE plus tard cette année. Selon le fondeur, ce sera la première puce téraflopique pour PC de bureau jamais produite. Son prix sera à la mesure de ce privilège : 1999 dollars HT ! Mais elle sera déclinée dans des versions Core i9 plus « abordables » puisqu’Intel livrera aussi des puces Core i9 avec 16, 14, 12 ou 10 cœurs, dont les prix s’échelonneront de 999 à 1699 dollars HT. Tous ces processeurs basés sur Skylake offriront de meilleures performances que les puces Broadwell-E précédentes. Selon le fondeur, elles sont en effet 15 % plus rapides dans les applications impliquant un thread d’exécution et 10 % plus rapides dans les tâches multithread. Mais, au cas où ces puces de la série Core i9, nom de code « Basin Falls », seraient encore trop puissantes pour vos usages, Intel a également prévu trois nouvelles puces de la série Core i7, dont les prix s’échelonnent de 339 à 599 dollars HT, ainsi qu’une puce Core i5 quad-core à 242 dollars HT. Toutes ces puces seront livrées « dans les prochaines semaines », a déclaré Intel.

La plupart des puces Core i9 intègrent une mise à jour de la technologie Intel Turbo Boost Max Technology 3.0, laquelle permet à la puce d’identifier non pas un, mais les deux « meilleurs » noyaux pour un overclockage dynamique des vitesses si nécessaire. « Ces puces sont également Optane-ready, c’est-à-dire qu’elles seront compatibles avec plus de 130 cartes mères Optane sur le point d’être mises sur le marché », a aussi déclaré Intel. À signaler cependant : toutes les puces 165W, 140W et 112W sont construites autour du Socket R4. Or ce réceptacle LGA avec 2066 broches n’est compatible qu’avec le chipset X299 d’Intel.

 

Intel ajoute en haut de sa gamme de processeurs une puce Core i9 Extreme Édition et des puces de la série Core i9. (Crédit : Intel)

La bataille revient sur le multicoeur

Intel et AMD semblent donc engagés dans une nouvelle bataille, et il faudra encore patienter avant de connaître le vainqueur de ce duel à coup de super processeurs. Avec sa puce Core i9, Intel se positionne de manière agressive sur le haut de gamme du marché. Le fondeur oblige aussi AMD à livrer les versions 14, 12, et 10-cœurs de ses puces Threadripper, ainsi que leurs prix. Intel a abattu ses cartes, mais le jeu reste ouvert.

Étant donné que les vitesses d’horloge plafonnent légèrement au-dessus de 4 GHz, la difficulté était de trouver une utilité à tous les noyaux supplémentaires que les fondeurs peuvent ajouter à leurs processeurs. Comme nous l’avons souligné précédemment, de nombreux jeux dépendent toujours essentiellement d’un seul processeur. Intel s’est intéressé de près à une nouvelle génération de « streamers » qui exploitent non seulement les noyaux pour faire tourner le jeu, mais sollicitent d’autres cœurs pour encoder le flux vers Twitch ou YouTube, avec éventuellement de la musique en arrière-plan. Le fondeur pense que ces activités simultanées qu’il appelle « megatasking » sont un levier formidable pour entretenir une demande toujours plus importante de noyaux. « Même les joueurs deviennent des créateurs de contenu », a déclaré Tony Vera, responsable marketing X-series.

Compte tenu de leur prix – jusqu’à 2000 dollars HT – seuls les gens qui auront de l’argent à dépenser (ou ceux qui seront sponsorisés) pourront s’offrir la dernière famille Core i9 d’Intel. (Crédit : Intel) 

Core i9-7980XE, 18-cœurs/36-threads, 1999 dollars HT

Core i9-7960X, 16-cœurs/32-threads, 1699 dollars

Core i9-7940X,14-cœurs/28-threads, 1399 dollars HT

Core i9-7920X, 12-cœurs/24-threads, 1199 dollars HT

Core i9-7900X (3.3 GHz), 10-cœurs/20-threads, 999 dollars HT

Pour les passionnés de jeux vidéo avec un budget plus serré, Intel proposera également trois nouvelles puces Core i7 X-series:

Core i7 7820X (3.6GHZ), 8-cœurs/16-threads, 599 dollars HT

Core i7-7800X (3.5 GHz), 6-cœurs/12-threads, 389 dollars HT

Core i7-7740X (4,3 GHz), 4-cœurs/8-threads, 339 dollars HT

Toutes ces nouvelles puces sont basées sur ce qu’Intel appelle « Skylake-X », à l’exception de la puce Core i7-7740X, construite autour du noyau Kaby Lake.

 

Intel n’a toujours pas donné le détail de toutes les spécifications de ses nouvelles puces. Voici ce que le fondeur a révélé pour l’instant. (Crédit : Intel)

L’une des fonctionnalités les plus intéressantes de ces nouvelles puces concerne la mise à jour Turbo Boost Max Technology 3.0. Comme l’a expliqué Gordon Mah Ung, le spécialiste hardware de PCWorld, dans un de ses tests sur les puces Broadwell-E d’Intel, la technologie Turbo Boost Max Technology 3.0 identifie le « meilleur noyau » parmi tous les noyaux disponibles. Il est différent d’une puce à l’autre. La puce peut alors faire tourner sur ce noyau des applications simple thread qui exigent beaucoup de puissance processeur afin d’améliorer les performances globales. Dans la version mise à jour de Turbo Boost Max Technology 3.0, la technologie est capable d’identifier deux « meilleurs cœurs », et les réserve aux threads les plus exigeants. Cela signifie que les jeux et les applications pourront tourner sur plus d’un noyau. Cependant, toutes les puces ne sont pas dotées de la fonctionnalité. C’est le cas notamment des nouvelles puces 6-cœurs et des deux puces quad-core X-series.

 

Hardware

AMD prêt à lancer ses Ryzen Mobile

Après les puces Ryzen 3, 5 et 7 pour PC de bureau, AMD prépare une offensive orientée cette fois sur le marché des PC nomades. Le fabricant promet que sa future puce Ryzen Mobile annoncée pour le second semestre sera deux fois plus puissante que son processeur mobile actuel (Carrizo). Mais d’autres puces, comme la Ryzen Pro, sont déjà en route.

Après les PC, AMD s’attaque aux ordinateurs nomades avec des processeurs au rapport prix-performance soigné. (Crédit AMD)

Hier, jour de la communication des résultats financiers, AMD a promis une expérience de jeu « phénoménale » avec ses prochaines puces Ryzen Mobile annoncées pour le second semestre de cette année. Ces processeurs équiperont aussi bien des PC 2-en-1 que des ordinateurs portables plus classiques. Selon les dirigeants d’AMD, cette souplesse s’explique en partie par les capacités graphiques du noyau Vega à venir. Mardi également, AMD a annoncé sa puce Ryzen Pro destinée cette fois aux postes de travail.

 

La feuille de route fournie d’AMD pour 2017. (Crédit : AMD)

La feuille de route d’AMD dévoilée pendant la conférence donne une idée du timing prévu par le fabricant pour ses processeurs Ryzen Mobile et Ryzen Pro, mais elle mentionne aussi une très grosse puce Threadripper pour gamers et ainsi qu’une série Epyc pour serveurs. Bien sûr, le message essentiel d’AMD tournait autour des résultats. Le fabricant a déclaré que ses bénéfices devraient s’améliorer, notamment parce que ses puces, pour lesquelles les joueurs et d’autres amateurs sont prêts à débourser beaucoup d’argent, lui permettent de réaliser de fortes marges.

Il est temps pour Ryzen de passer aux choses sérieuses

Aujourd’hui, la plupart des ventes de PC concernent les ordinateurs portables. Cela signifie que le déploiement des puces Ryzen 3, 5 et 7 pour ordinateurs de bureau a simplement servi de galop d’essai à AMD avant le grand lancement des Ryzen Mobile. Jim Anderson, vice-président senior et directeur général Client et Computing Group d’AMD, a déclaré que l’entreprise avait déjà reçu un bon accueil de la part de ses partenaires hardware. « Nous travaillons depuis des mois avec nos meilleurs [partenaires matériels] pour mettre de nouveaux systèmes sur le marché », a déclaré Jim Anderson. « Il faut donc s’attendre à voir arriver de belles machines 2-en-1, mais aussi de très beaux ultraportables fins et légers, et de formidables systèmes gamers équipés de la puce Ryzen Mobile ». Si l’on en croit Jim Anderson, la puce Ryzen Mobile présente de nombreux avantages : « Elle augmente de manière incroyable la vie de la batterie, elle décuple les performances des applications de productivité et elle offre une expérience de jeu exceptionnelle, y compris sur des notebooks fins et légers ».

 

Selon AMD, la puce Ryzen Mobile est beaucoup plus performante que ses puces actuelles. (Crédit : AMD) 

Pour tenir ces promesses, AMD a mis dans ses puces des composants clés. À commencer par le noyau Zen, « qui permet un saut qualitatif de plus de 50 % par rapport aux puces mobiles Carrizo existantes », comme l’a encore déclaré Jim Anderson. Mais il y a une surprise derrière tout ça : les premiers noyaux graphiques Vega, qui offriront un gain de performance de 40 % à la génération actuelle. Pour autant, l’efficacité énergétique n’est pas négligée puisque « la puce Ryzen Mobile sera moitié moins gourmande en énergie que la puce actuelle », a aussi déclaré Jim Anderson.

 

AMD prévoit de livrer des puces pour PC commerciaux cette année et l’année prochaine. (Crédit : AMD)

Une puce Ryzen pour le marché commercial

Certes, les CPU Ryzen et GPU Vega d’AMD devraient sans doute attirer les joueurs. Néanmoins, le marché des PC de bureau représente également un créneau important pour AMD. Certains clients préfèreront sûrement acheter un poste de travail passe-partout qu’une machine de jeu avec son look and feel particulier. C’est pour ce segment qu’AMD prévoit de lancer la puce Ryzen Pro (moins chère et moins performante) pour un usage principalement bureautique. Le fabricant veut en effet profiter du succès rencontré par sa ligne Ryzen pour renforcer sa présence sur ce secteur avec une ligne dédiée. « Les cinq principaux fabricants de PC livreront des ordinateurs desktop basés sur Ryzen », ont affirmé les dirigeants d’AMD.

 

AMD s’attaque aux puces Core i5 d’Intel avec sa nouvelle série Ryzen Pro. (Crédit : AMD)

Pour l’instant, le fabricant a donné peu de détails sur la vitesse de ses puces Ryzen Pro et sur leur prix. Mais AMD croit qu’elles tiendront la comparaison avec l’offre d’Intel. Selon sa directrice générale, Lisa Su, tous ces produits vont contribuer à changer la réputation d’AMD, perçu essentiellement comme un fabricant de puces bon marché. « Avec ce portefeuille de produits, AMD peut devenir la première entreprise de ce secteur », a-t-elle déclaré.

 

Hardware

HPE montre un prototype The Machine avec 160 To de RAM

13 ans après l’ébauche du concept, HPE a dévoilé son premier prototype à part entière de The Machine dans un laboratoire au Colorado.

Les ingénieurs de HPE dans le laboratoire de Fort Collins, Colorado, où l’on teste The Machine. (Crédit HPE)

En 2004, Kirk Bresniker, architecte en chef chez HP Labs, s’est engagé à apporter des changements radicaux à l’architecture informatique avec The Machine et a dessiné le premier concept sur un tableau blanc. À l’époque, il voulait construire un système capable de transporter l’informatique vers l’avenir. L’objectif était de construire un ordinateur utilisant des technologies de pointe comme les memristors et les connexions photoniques. Ce fut un voyage ardu, mais HPE a finalement montré un prototype de The Machine dans un laboratoire à Fort Collins, au Colorado.

Si ce prototype est plutôt éloigné de ce que l’entreprise envisageait avec The Machine lorsque le projet a été officiellement annoncé en 2014, il suit le même principe pour la structure du sous-système mémoire. Il brise les limitations liées à l’architecture conventionnelle des PC et serveur dans laquelle la mémoire est un goulet d’étranglement, en exploitant une technologie appelée Memory-Driven Computing. La caractéristique exceptionnelle de ce méga-serveur est sa capacité mémoire de 160 To répartie sur 40 noeuds physiques – divisés en quatre boîtiers Apollo 6000 – interconnectés avec une architecture fabric utilisant une interconnexion haute performance.

Un prototype prometteur

Aucun serveur sur le marché ne peut se vanter d’atteindre cette capacité mémoire. Cela représente plus de trois fois la DRAM du Superdome X de HPE. Les connexions sont réparties sur un réseau maillé afin que les noeuds mémoire et processeurs puissent communiquer plus rapidement entre eux. Des FPGA fournissent la logique du contrôleur pour l’architecture d’interconnexion. The Machine exploite 1 280 cœurs ARMv8-A Cavium ThunderX2 (40 puces avec 32 cœurs) avec une version optimisée du système d’exploitation Linux.

Une des 40 cartes mères de The Machine qui embarque des puces ARMv8 64-bit ThunderX2 fournies par Cavium. (Crédit HPE)

Les ordinateurs traiteront d’énormes quantités d’informations à l’avenir et The Machine sera prête pour cet afflux, a déclaré Kirk Bresniker. Et d’une certaine façon, The Machine prépare les ordinateurs pour la fin de la loi de Moore [qui a déjà été revisitée], a-t-il indiqué. The Machine est un système distribué qui décompose le traitement entre plusieurs ressources. Ce super ordinateur est également prêt pour les technologies d’avenir. Les slots sont capables d’accueillir des connecteurs photoniques, afin de relier le stockage, la mémoire et les processeurs sur une architecture fabric ultrarapide. L’interconnexion elle-même est une mise en œuvre anticipée du protocole Gen-Z, soutenue par les principaux fabricants de matériels (puces, stockage et mémoire).

Toujours pas de memristors 

HPE entend améliorer les sous-systèmes mémoire et stockage dans les PC et les serveurs. Si les données sont traitées plus rapidement dans la mémoire et le stockage, cela réduit la nécessité d’accélérer les instructions par heure dans les CPU. L’informatique en mémoire a accéléré des applications comme les bases de données et les systèmes ERP, et HPE a fait progresser la conception de ces systèmes avec SAP et Microsoft. Il y a également un mouvement pour découpler la mémoire et le stockage des serveurs principaux. Cela contribue à accélérer l’informatique et à utiliser plus efficacement les ressources des centres de calcul, comme le refroidissement.

HPE s’est toutefois heurté à quelques problèmes. Le modèle initial de The Machine était censé utiliser des memristors, un type de « mémoires-résistances » pouvant effectuer des calculs logiques qui devait aider les ordinateurs à prendre des décisions en fonction des données qu’ils conservent. HP a annoncé la memristor en 2008, mais elle a été retardée à plusieurs reprises. La société développe aujourd’hui la technologie avec Western Digital, a déclaré Kirk Bresniker. Ce dernier a adopté une approche open source pour le développement de The Machine, avec l’éthique de la coopération entre les partenaires pour construire de tels systèmes à l’avenir. Ce système est un prototype qui conduira le développement et la mise en œuvre de Gen-Z et de circuits qui peuvent être utilisés comme co-processeurs.

Intel fait cavalier seul avec sa 3D Xpoint 

Alors que HPE essaie de créer un nouvel écosystème, Intel propose une autre approche avec sa technologie de stockage et mémoire 3D Xpoint. Les fabricants de serveurs proposent déjà des ordinateurs plus rapides exploitant des SSD Optane, en attendant l’arrivée des barrettes mémoire haute capacité.

The Machine est une future architecture informatique qui est également pratique, a déclaré Patrick Moorhead, analyste principal chez Moor Insights et Strategy. « Le fait qu’ils puissent faire cela et exécuter des programmes, c’est absolument incroyable », a-t-il déclaré. The Machine se situe entre les serveurs d’aujourd’hui et les systèmes futurs comme les ordinateurs quantiques. Mais il reste encore trois ou cinq ans avant sa mise en œuvre dans les centres de calcul, a déclaré l’analyste.

 

Hardware

Volta, un GPU de 21 milliards de transistors signé Nvidia

En annonçant un GPU Volta gravé à 12nm, Nvidia détourne – un peu – l’attention de la puce Radeon Vega annoncée par son rival AMD pour fin juin. Ce GPU hors norme est embarqué dans la puce graphique Tesla V100 destinée aux datacenters.

Jen-Hsun Huang lors de sa keynote à la conférence GPU Technology (8-11 mai) à San José en Californie, tenant dans les mains la puce graphique Tesla V100 de Nvidia basée sur Volta. (crédit : Nvidia)

« Nous devons trouver une solution viable pour dépasser la loi de Moore », a déclaré le CEO de Nvidia, Jen-Hsun Huang, en ouverture de la conférence annuelle GPU Technology qui se tient du 8 au 11 mai dans la Silicon Valley à San José. En attendant, Nvidia n’hésite pas à investir pour démultiplier la puissance de ses processeurs graphiques, comme en témoigne la première puce basée sur son GPU Volta de prochaine génération. Les processeurs graphiques haut de gamme « Pascal » de Nvidia sont toujours les plus performants, au moins jusqu’à l’arrivée des GPU Radeon Vega par AMD prévue avant la fin du mois de juin. Même si le GPU Tesla V100 est destiné aux datacenters, la présentation de Volta permet à Nvidia de détourner un peu l’attention sur la puce de son rival.

Le GPU Volta est vraiment énorme, aussi bien en taille qu’en fonctionnalités. Il comprend 21 milliards de transistors et 5 120 cœurs CUDA tournant à une vitesse d’horloge de 1,455 GHz. La fabrication est basée sur un processus de gravure à 12 nanomètres plus évolué que celui utilisé pour les GPU actuels de Nvidia. Comparativement, la puce Tesla P100 à 14 nm, son GPU phare de la série Pascal, comprend 3 840 cœurs CUDA et 15 milliards de transistors. Quant à la puce GeForce GTX 1060, elle comprend le quart de cœurs CUDA – 1 280 exactement – de la Tesla V100. Toute la technologie de la Tesla V100 tient dans un carré de 815 mm, contre 600 mm pour la Tesla P100 ! Volta atteint « les limites de la photolithographie », a ironiquement déclaré le CEO de Nvidia à propos de la puce dont le développement a concentré un budget R&D de plus de 3 milliards de dollars.

La nouvelle puce graphique Tesla V100 de Nvidia basée sur Volta (Crédit : Nvidia)

Jusqu’à 120 téraflops par seconde

Nvidia a déclaré qu’il avait redessiné l’architecture de diffusion de Volta pour qu’elle gagne 50% de performance en plus par rapport à Pascal. Si cela se confirme, le résultat sera impressionnant, avec « des améliorations majeures dans les performances FP32 et FP64 avec un même GPU », comme l’a affirmé Nvidia. Le Tesla V100 comprend également de nouveaux « noyaux de tenseur » construits spécifiquement pour le deep learning. « Ils multiplient par 12 le débit en téraflops du Tesla P100 basé sur Pascal », a déclaré le CEO de Nvidia. (Google a également investi dans le développement d’un hardware de traitement basé sur un système de tenseurs). Les pics de performance atteints par le Tesla V100 sont les suivants : 7.5 téraflops/s en performance en virgule flottante à double précision (FP64), 15 téraflops/s en performance à simple précision (FP32) et 120 téraflops/s en précision mixte pour les opérations de multiplication et d’accumulation de matrice pour les noyaux de tension.

Nvidia GPU Volta

L’énorme GPU Volta à l’intérieur du Tesla V100 (Crédit : Nvidia)

Le Tesla V100 utilise 16 Go de mémoire ultra-rapide avec une largeur de bande de 4 096 bits pour assurer un traitement rapide des données. On ne sait pas encore si les cartes graphiques grand public basées sur Volta seront équipées de mémoire HBM2 (High  Bandwitch Memory, Second Generation). Ce sera le cas de la Radeon Vega, mais la technologie est encore relativement nouvelle et coûteuse. Les premières cartes graphiques GeForce GTX séries 10 étaient équipées de la nouvelle technologie GDDR5X basée sur des designs de mémoire classiques. Récemment, SK Hynix a déclaré qu’il « lancerait une production en masse pour le compte d’un client qui prévoie de mettre sur le marché une carte graphique haut de gamme intégrant de la DRAM GDDR6 haute performance d’ici le début de l’année 2018 ». Selon Nvidia, cette mémoire HBM2 atteint des vitesses de 900 Go/s. De plus, le Tesla V100 sera doté de la technologie NVLink de seconde génération de Nvidia. Avec une vitesse de transfert de 300 Go/s, Jen-Hsun Huang affirme que NVLink est désormais 10 fois plus rapide que les connexions PCIe standard.

Nvidia GPU Volta

Légende : L’intérieur du Tesla V100 (Crédit : Nvidia)

Il est possible d’avoir plus de détails sur le datacenter et l’architecture Volta, en consultant le document explicatif Tesla V100 de Nvidia. Au troisième trimestre, et plus largement au quatrième trimestre, Nvidia lancera une version améliorée de son coûteux système de Deep Learning DGX-1 avec le GPU Tesla V100 en remplacement du GPU Pascal, .

 

Hardware

La Chine ajoute un ordinateur quantique à son arsenal HPC

La Chine, qui possède déjà TaihuLight, le superordinateur le plus rapide du monde, développe un système quantique puissant basé sur l’intrication de photons dont les performances seraient supérieures à celles des PC et serveurs actuels.

La Chine ajoute un ordinateur quantique à son parc informatique haute performance. (Crédit D.R.)

Des entreprises comme IBM et D-Wave ont déjà construit des ordinateurs quantiques. Mais l’approche choisie par les chercheurs chinois pour développer leur machine quantique est différente. En effet, leur solution fait intervenir des photons multiples et permettrait à leur machine de dépasser les capacités de calcul des ordinateurs actuels. L’architecture quantique de calcul élaborée par les chercheurs est basée sur l’échantillonnage et l’intrication de cinq photons. Plus évoluée que celle des systèmes antérieurs – elle était basée sur un échantillonnage à un seul photon – cette architecture est, selon les chercheurs, jusqu’à 24 000 fois plus rapide que l’architecture précédente. Les chercheurs chinois ont fabriqué eux-mêmes les composants nécessaires pour effectuer l’échantillonnage de bosons. Théorisé depuis longtemps, ce mode d’échantillonnage est considéré comme un moyen simple de construire un ordinateur quantique. L’architecture développée par les chercheurs permet d’inclure un grand nombre de photons, ce qui augmente la vitesse et l’échelle du traitement informatique.

La Chine cherche à être autosuffisante et renforce en conséquence son arsenal technologique. Déjà, grâce à des puces fabriquées localement, son ordinateur TaihuLight est le plus rapide du monde. En 2014, la Chine avait déclaré qu’elle dépenserait 150 milliards de dollars pour développer ses propres semi-conducteurs afin d’équiper les PC et les mobiles produits sur place. Plus tôt cette année, les États-Unis craignant que le marché ne soit inondé par des puces chinoises à bas coût, ont accusé la Chine de manipuler le marché des semi-conducteurs à son avantage. On ne sait pas très bien si l’ordinateur quantique est une priorité pour les dirigeants chinois. Mais les progrès rapides accomplis par ses chercheurs inquiètent d’autres pays, et notamment les États-Unis. En effet, si la Chine parvenait à se doter d’un ordinateur quantique ultra rapide, elle pourrait réaliser des progrès conséquents dans des domaines comme le développement d’armes, où la capacité de calcul est un facteur déterminant. Néanmoins, il faudra encore beaucoup de temps avant que le pays ne parvienne à construire un véritable ordinateur quantique opérationnel. Car si son prototype est capable de faire des choses très spécifiques, il est encore loin de pouvoir exécuter n’importe quelle tâche.

Dépasser les limites des serveurs actuels

La recherche sur les ordinateurs quantiques suscite de plus en plus d’intérêt en raison des limitations technologiques auxquelles sont confrontés les serveurs actuels. Il devient de plus en plus difficile désormais de réduire la taille des puces. Cet obstacle représente aussi un frein à la baisse du coût des ordinateurs en contrepartie d’une vitesse plus élevée. S’ils tiennent leurs promesses, les ordinateurs quantiques, fondamentalement différents des ordinateurs utilisés aujourd’hui, assureront la relève. Les bits des ordinateurs actuels sont stockés sous forme de 0 et de 1, alors que les ordinateurs quantiques utilisent des qubits, ou bits quantiques, qui peuvent prendre plusieurs états simultanément. Grâce au parallélisme, les qubits sont capables de réaliser beaucoup plus de calculs simultanément. Mais les qubits sont fragiles et hautement instables et peuvent facilement se décomposer au moment de l’intrication, un terme technique utilisé pour désigner l’interaction entre les qubits. Et en cas de panne, un système quantique entrainerait une forte instabilité des processus informatiques.

L’ordinateur quantique chinois est composé d’un système à photon basé sur des points quantiques (des atomes artificiels), des démultiplexeurs, des circuits photoniques et des détecteurs. Il existe de multiples façons de construire un ordinateur quantique, y compris en utilisant des qubits avec des capacités supraconductrices, ce que fait par exemple D-Wave Systems. À l’instar du système mis au point par les chercheurs chinois, la méthode de recuit quantique de D-Wave permet aussi de construire simplement un ordinateur quantique, mais sa solution pas idéale pour développer un ordinateur quantique universel. IBM dispose déjà d’un ordinateur quantique à 5 quits que le constructeur a même déployé dans le cloud. Désormais, le constructeur cherche à développer un ordinateur quantique universel en utilisant des qubits supraconducteurs, mais il s’appuie sur modèle différent pour stabiliser ses systèmes. Microsoft s’est également mis en quête d’un nouvel ordinateur quantique basé sur un calcul quantique topographique et une particule encore inconnue appelée anyons non abéliens. Toujours à la recherche de l’ordinateur du futur, la Chine a également développé une puce neuromorphique appelée Darwin.

 

Hardware