Le cloud, vecteur de démocratisation des supercalculateurs

Les supercalculateurs sont encore réservés à des applications très spécialisées, mais diverses, qui vont des prévisions météorologiques à la gestion du stock d’armes nucléaires par le gouvernement des États-Unis. Alors que le coût très élevé de ces systèmes de calcul extrêmement puissants limite leur utilisation, le cloud pourrait favoriser leur démocratisation.

Cray Urika-GX, un système combinant des éléments d’architecture de supercalculateur avec des outils analytiques de données pré-configurés. (crédit : Cray)

Selon l’entreprise américaine Cray – qui construit certains des plus puissants supercalculateurs du monde – la mise à disposition d’infrastructures de calcul haute performance sous forme de services via le cloud pourrait élargir l’accès aux entreprises qui n’ont ni le budget, ni les compétences, pour faire tourner elles-mêmes ces matériels complexes à grande échelle. Pour concrétiser son concept de « calcul intensif en tant que service », le constructeur a d’ailleurs déjà conclu un partenariat avec l’hébergeur Markley. Leur premier produit sera un Cray Urika-GX, un système combinant les éléments d’un supercalculateur avec des outils d’analyse de données préconfigurés. Et les deux partenaires envisagent déjà d’ajouter rapidement toute la gamme de solutions d’infrastructure de Cray à leur offre.

« Notre ambition est de supprimer tous les obstacles qui empêchent d’accéder à une telle technologie et à ses capacités », a déclaré Dominik Ulmer, le vice-président EMEA des opérations métiers de Cray. « Le fait de proposer l’Urika-GX dans un environnement cloud permet de réduire aussi le temps d’accès aux données et à l’analyse, dans la mesure où il n’est même pas nécessaire de passer par un processus d’approvisionnement », a-t-il ajouté. « En effet, l’entreprise n’a pas besoin de réserver cet environnement via son IT pour configurer l’Urika-GX dans son datacenter et le lancer. Elle peut louer directement le système auprès de l’hébergeur Markley ». Selon Dominik Ulmer, le directeur financier appréciera aussi la procédure puisque la solution est désormais un Opex et non plus un Capex. Et, d’un point de vue pratique, il est plus facile d’accéder aux ressources internes pour utiliser ce genre de tel système.

Les secteurs cybersécurité et finances également ciblés 

Dans un premier temps, Cray compte séduire les laboratoires pharmaceutiques et génomiques. Déjà, un centre de recherche en sciences biomédicales du MIT et de Harvard appelé Broad Institute a utilisé le système pour comparer des données de patients atteints de cancer avec des données génomiques et protéomiques. Il a pu ainsi établir un lien entre la carte génomique de chaque patient et les taux de mortalité par cancer, et essayer de trouver quel serait le traitement idéal. Mais, le constructeur pense à un grand nombre d’applications dans des domaines comme la cybersécurité, les secteurs pétroliers et gaziers, les finances et bien d‘autres. « Pour l’industrie, le calcul intensif est en train de devenir un avantage concurrentiel, et les entreprises s’y intéressent de plus en plus », a expliqué le vice-président EMEA des opérations métiers de Cray. « Grâce aux supercalculateurs, elles pourront faire tourner des modèles plus gros et obtenir des résultats plus rapidement. Cela signifie qu’elles pourront résoudre des problèmes plus complexes et mettre leurs produits plus rapidement sur le marché. Elles constatent surtout que les architectures de leurs systèmes existants atteignent rapidement leur limite ».

Ces derniers mois, le marché du calcul intensif a cependant subi une baisse considérable, comme en témoignent les résultats financiers de Cray : le chiffre d’affaires du constructeur est passé de 105,5 millions de dollars au premier trimestre 2016 à 59 millions de dollars au premier trimestre 2017, avec des pertes nettes à 19,2 millions de dollars.

 

Datacenter

Atos va livrer au Genci un Bull Sequana de 9 PFlops

Pour succéder au système Curie du TGCC, le Genci renouvelle ses investissements dans la technologie Bull d’Atos. Le constructeur national lui livrera fin 2017 un supercalculateur Sequana dont la puissance approchera les 9 petaflops (en pointe) dans sa première tranche.

Le supercalculateur commandé par Genci à Atos/Bull est basé sur la plateforme Sequana X1000, cette dernière ayant une vocation exaflopique à l’horizon 2020. (crédit : D.R.)

C’est un supercalculateur Bull Sequana d’une puissance de 8,9 pétaflops – en performance de crête – qui va succéder au système Curie installé au TGCC, le très grand centre de calcul du CEA, à Bruyères-le-Chatel. Dans le cadre d’un contrat remporté auprès du Genci (Grand équipement national de calcul intensif), Atos livrera fin 2017 ce système capable d’exécuter près de 9 millions de milliards d’opérations par seconde. Celui-ci s’appuie sur la plateforme Bull Sequana X1000, qui pourra d’ici 2020 atteindre l’exaflop, soit le milliard de milliards d’opérations par seconde.

Dans sa première tranche de 8,9 pétaflops, ce système de calcul haute performance abritera 124 700 cœurs de calcul avec des capacités de mémoire distribuée approchant les 400 téraoctets. Pour Genci, ce système pétaflopique représentera « le fer de lance » de son engagement dans l’infrastructure européenne de recherche PRACE, indique son PDG Philippe Lavocat dans un communiqué. Il sera mis au service des chercheurs français et européens (dans les domaines de la climatologie, de l’astrophysique, de l’énergie, de la médecine, de la chimie moléculaire, notamment) et ses capacités de calcul seront également accessibles pour les besoins d’utilisateurs industriels, de PME et de start-ups.

Une deuxième tranche à 20 pétaflops courant 2019

Les nœuds de calcul du supercalculateur commandé regroupent 9 cellules Sequana. Celles-ci sont équipées de puces Xeon Skylake-EP et Xeon Phi KNL d’Intel, conçues pour le calcul intensif. Le système s’appuie sur des liaisons BXI (Bull eXascale Interconnect) et Infiniband. Il fonctionne sous l’environnement Bull SCS 5 basé sur Linux Red Hat 7.x et recourt à un cluster de stockage multi-niveaux Lustre qui délivre 300 Go/s pour une volumétrie utile de 5 Pio, précise Atos. Le dispositif de refroidissement par eau à température ambiante repose sur la technologie brevetée Direct Liquid Cooling. Celle-ci permet d’économiser jusqu’à 40% sur la consommation énergétique par rapport à un refroidissement par air. Dans une deuxième tranche, courant 2019, les performances de calcul de ce supercalculateur devraient être étendues à plus de 20 pétaflops, indique Atos.

Le constructeur français est le principal acteur du calcul haute performance en Europe. Parmi les supercalculateurs qu’il a livré dans le monde figurent le Santos Dumont, un système pétaflopique installé au Brésil en 2015 ou, plus récemment, un système teraflopique Bullx commandé par l’institut britannique Pirbright. Le groupe français a également porté à 1,8 pétaflops les capacités du Cartesius (Bull Sequana) du datacenter SURFsara à Amsterdam. Atos compte 22 systèmes au classement Top500 des supercalculateurs installés dans le monde.

 

Datacenter

OpenStack Summit : le PCaaS défie le cloud public

En ouverture de l’OpenStack Summit qui se déroule actuellement à Boston, Jonathan Bryce, le directeur opérationnel de la fondation éponyme, a défendu l’intérêt du cloud privé face au cloud public. Afin de gommer les défauts du premier face au second, notamment les coûts d’acquisition, OpenStack pousse à l’adoption du PCaaS.

Jonathan Bryce, le directeur opérationnel d’OpenStack, a souligné qu’en 2016 OpenStack avait eu le même taux d’adoption qu’AWS.

En direct de Boston – Et si le cloud privé prenait sa revanche sur le cloud public ? C’est l’idée qu’a défendu Jonathan Bryce, le directeur opérationnel de la fondation OpenStack, en ouverture de l’OpenStack Summit qui se déroule cette semaine à Boston. Il est d’abord revenu sur les derniers chiffres de l’adoption du framework open source pour les infrastructures cloud, qui a vu ses déploiements progresser de 44% à travers le monde en 2016. « Nous arrivons aujourd’hui sur un point d’inflexion pour le cloud. Les infrastructures privées gagnent en maturité et sont en passe de dépasser les infrastructures publiques en termes de pure adoption », estime le dirigeant.

Pour lui, le cloud privé arrive dans sa deuxième génération. « Quand nous avons commencé, notre principale priorité était de faire des infrastructures hyperscales et nous nous concentrions surtout sur la virtualisation du stockage », rappelle Jonathan Bryce. Aujourd’hui, les choses ont évolué et le cloud privé, comme OpenStack, entre dans une nouvelle dimension. « Nous nous concentrons plus sur les usages et nous rapprochons du monde applicatif. Nous sommes plus centrés sur les processus », clame le dirigeant.

Le cloud privé toujours plus « application centric »

Il n’y a d’ailleurs qu’à voir quels sont les outils le plus utilisés sur OpenStack. Il s’agit de Kubernetes, Openshift et CloudFoudry. Les deux premiers, respectivement lancés par Google et Red Hat, servent à la gestion d’environnements applicatifs conteneurisés et le troisième est un PaaS de développement et de déploiement pour les applications multi-cloud. A noter qu’ils sont tous open source. Reste que certains aspects du cloud privé ont encore de quoi rebuter les entreprises, notamment son coût d’acquisition.

« C’est pour cela que nous devons faire évoluer le mode de consommation du cloud privé en le calquant sur celui du cloud public », déclare Jonathan Bryce. Et c’est pour cela qu’OpenStack a annoncé au Summit le lancement du programme Remotely Managed Private Cloud pour encourager ses partenaires à lancer des offres de PCaaS (Private Cloud as a Service). Le but est de permettre aux utilisateurs de profiter des avantages d’OpenStack en termes de flexibilité et d’écosystème tout en évitant les problématiques de mise en place et de gestion.

 Les partenaires déjà investis et présents

« Avec le PCaaS, nous pouvons en outre assurer une évolution technologique constante des infrastructures cloud sans interruption pour les clients », explique Boris Renski, le co-fondateur de Mirantis, l’un des premiers partenaires du nouveau programme d’OpenStack. IBM, Cisco et Rackspace en font également partie.

 

Datacenter

Le cloud s'impose dans les entreprises avec des réserves

Une étude réalisée sous l’égide de Teradata montre le développement de l’adoption du cloud malgré les risques considérés.

Si le cloud est toujours jugé risqué, il est de plus en plus adopté. (Crédit D.R.)

La sécurité ? Oui, encore et toujours, elle reste le principal frein à l’adoption du cloud public selon une étude publiée par Teradata. 40 % des décideurs interrogés estiment la sécurité générale comme un risque spécial dans le cloud, 25 % jugeant que l’adoption du cloud entraîne davantage de failles.

Or, en 2019, les mêmes décideurs interrogés estiment que plus de la moitié de leurs données y seront stockées : 56 % l’estiment pour les données informatiques, 53 % pour les données clients et 51 % pour les données financières mais seulement 27 % pour les données juridiques. La sécurité n’aurait donc pas d’importance pour ces données ?

Dans les autres freins, mentionnons les 22 % qui jugent qu’ils auront besoin de plus de personnel pour assurer la transition vers le cloud. Sans surprise, le secteur de la Santé et celui des Services Publics sont plus réticents que d’autres à basculer dans le cloud.

 

Datacenter

IBM planche sur un service d'ordinateur quantique

IBM a annoncé un programme de calcul quantique dénommé Q. Son objectif ? Créer, d’ici quelques années, un ordinateur quantique à plus de 50 qubits et proposer des services de calcul quantique à ses clients.

Un chercheur travaillant sur le système d’ordinateur 5-qubit d’IBM. (crédit : IBM)

Au cinéma comme à la télévision, le nom Q est généralement réservé à des personnages exceptionnels. Dans les films de James Bond, l’agent « Q » dirige le département recherche et développement du MI6 et il est l’inventeur de tous les gadgets futuristes utilisés par l’agent secret britannique. Dans Star Trek, l’espèce des Q est connue pour son omnipotence et son omniscience. Le programme Q d’IBM n’est pas moins remarquable : le constructeur…

 

Datacenter