Pourquoi HPE et Mirantis réduisent leurs effectifs OpenStack

Contributeurs historiques à la plate-forme cloud OpenStack, HPE et Mirantis coupent aujourd’hui leurs efforts en licenciant des actifs.

Ces dernières années, Hewlett Packard Enterprise et Mirantis ont été parmi les principaux contributeurs à OpenStack. Mais aujourd’hui en pleine restructuration, ces deux acteurs baissent la voilure et ont commencé à licencier des employés travaillant sur la plate-forme cloud open source.

Une semaine après l’OpenStack Summit de Barcelone, revenons sur deux nouvelles qui ont particulièrement animé les discussions de fin de journées. Hewlett Packard Entreprise et Mirantis – deux des sociétés les plus impliquées dans le projet cloud open source OpenStack avec Red Hat et IBM – ont chacune licencié des employés ces dernières semaines.

L’intégralité des licenciements chez HPE n’a pas été détaillée mais notre confrère ComputerWorldUK a cité la semaine dernière le fondateur de Canonical Mark Shuttleworth en indiquant que HPE avait considérablement allégé ses équipes OpenStack. Franz Meyer, vice-président Strategic Business Development pour la zone EMEA chez Red Hat, nous a expliqué à Barcelone qu’une partie des effectifs Helion avait été remerciée. Un tweet de Vicky Brasseur, directeur technique chez HPE à Portland pour le programme Helion, est d’ailleurs particulièrement explicite :

Elle a en effet été obligée de licencier toute son équipe OpenStack et elle invite les entreprises et fournisseurs travaillant sur la plate-forme à les recruter.

Des explications laborieuses

Un responsable de HPE a confirmé qu’il y avait eu une restructuration, mais sans préciser combien de personnes travaillant sur OpenStack – à Seattle – avaient été remerciées. Il indique simplement que la déclaration de Mark Shuttleworth était exagérée. Sur le stand HPE à l’OpenStack de Barcelone, les visages se fermaient quand on abordait ce sujet… Mark Shuttleworth a également déclaré que Mirantis a supprimé environ 300 postes de développeurs OpenStack, mais le co-fondateur et directeur marketing de la société de services, Boris Renski, précise que le nombre de licenciés est inférieur à 100.

Les responsables de la Fondation OpenStack – qui sont chargés de coordonner le développement des différentes briques de la plate-forme – n’ont pas voulu spécifiquement commenter ces coupes, qui sont peut être révélatrices des faiblesses de cette communauté open source. 10 000 personnes s’étaient inscrites au dernier OpenStack Summit et les ateliers techniques se sont succédés durant trois jours. En Europe, les projets – de type cloud privé – restent toujours modestes, nous avait confié Franz Meyer à Barcelone.

Deux années tumultueuses chez HPE 

Un porte-parole de HPE a confirmé qu’il y avait bien eu des licenciements mi octobre dans le cadre d’une « stratégie de remise à l’échelle de l’entreprise pour permettre à HPE d’être plus agile et plus centré sur ses partenaires et clients dans les entreprises. Le licenciement de tous ses employés OpenStack était une affirmation erronée, la société emploie encore des experts techniques OpenStack, précise-t-il.

Des sources familières avec le sujet expliquent que les licenciements ont été motivés par de multiples facteurs. Tout d’abord, une restructuration générale entamée depuis la scission de HP en novembre 2015 avec HPE d’un coté et HP Inc de l’autre. En avril 2016, HPE a ensuite annoncé une sorte de fusion/spin-off de ses actifs logiciels non essentiels (Autonomy, Vertica, ArcSight…) avec Micro Focus dans le cadre d’un accord de 8,8 milliards de dollars qui a provoqué un transfert d’employés. HPE possède aujourd’hui 50,1% des parts de Micro Focus. Une source proche de HPE ajoute que, depuis l’annonce de l’accord avec Micro Focus, une grande partie des employés de l’activité cloud (PaaS et IaaS) ont été remerciés. Cette source, qui tient farouchement à garder son anonymat, précise qu’il y a des rumeurs sur le fait que HPE pourrait vendre sa distribution OpenStack Helion (4.0 à ce jour) et poursuivre sa commercialisation, mais en tant que marque blanche. Suse, une société du groupe Micro Focus, qui développe sa propre distribution OpenStack, est considérée comme la cible plus probable pour la reprise des actifs cloud de HPE. Un peu plus tôt cette année, HPE avait déjà balisé le terrain indiquant que Suse était son partenaire Linux «préféré» et que les entreprises travailleraient ensemble sur OpenStack. Certains puristes open source considèrent aujourd’hui la distribution Helion, qui intégre des composants d’orchestration et d’automatisation issus du rachat d’Eucalyptus, comme un fork d’OpenStack. Ce qui expliquerait le dédain de la communauté pour la plate-forme. Et si on consulte Stackalytics.com, on découvre que HPE a considérablement diminué ses contributions à OpenStack ces derniers mois. 

Les coupes chez Mirantis découlent du rachat de TCP Cloud

Les licenciements chez Mirantis interviennent quelques semaines après l’acquisition de TCP Cloud (le 15 septembre 2016 pour être précis), une start-up tchèque qui offre une version hébergée du cloud open source qu’elle vend aux clients en tant que service. Une solution également proposée par Platform 9. Après cette acquisition, Boris Renski a déclaré qu’il était nécessaire de « trouver un équilibre entre la pureté du génie logiciel et l’expertise opérationnelle ». 

Deux activités de Mirantis sont concernées par les coupes. Il s’agit du projet Fuel, un installateur OpenStack, qui est en cours de réaménagement pour se concentrer sur « l’infrastructure en tant que code », a déclaré Boris Renski. Un deuxième groupe d’employés, concentrés sur un projet PaaS interne, va désormais contribuer au développement du support du gestionnaire de containers open source Kubernetes. « Nous n’abandonnons pas OpenStack et nous ne sortons pas du marché des distributions OpenStack », a précisé Bob Renski. 

Qu’est-ce que cela signifie pour OpenStack 

HPE et Mirantis ont été deux des sociétés les plus influentes dans la communauté OpenStack. En 2015, les développeurs de HPE et Mirantis ont été les deux premiers contributeurs de la plate-forme. Mais pour la prochaine version baptisée Ocata qui sera disponible l’année prochaine, HPE est tombé à la sixième place pour la quantité de code, selon le site Stackalytics.com. Les contributions de Mirantis sont passées de 19% du code pour la release actuelle Newton à 12% pour Ocata attendue l’année prochaine. Il est bien sûr possible de contribuer différemment au projet OpenStack en remontant des bugs ou en fournissant des ressources matérielles comme le fait OVH, mais sans code, il n’y aurait tout simplement pas d’OpenStack. 

Le directeur exécutif de la Fondation OpenStack, Jonathan Bryce, n’a pas tenu à commenter publiquement les licenciements, mais il a déclaré que le projet OpenStack est globalement sain et en croissance. « Nous continuons d’ajouter de nouvelles entreprises et contributeurs », a-t-il déclaré. « Il est nécessaire d’avoir une large base d’entreprises qui participent. La façon dont elles participent peut changer, mais c’est sain pour un projet open source, qui est mesuré par la somme de ses composantes, pas seulement par un individu ou une entreprise ». Mark Collier, COO de la fondation OpenStack, a ajouté que la dernière version d’OpenStack avait un nombre record de contributeurs. « Ce que nous voyons au niveau macro sont des flux et des reflux entre les différentes organisations au fil du temps », a-t-il dit. « Pour nous, il s’agit plus d’une agrégation plus que de têtes d’affiche. » 

 

Datacenter

Solvay confie à CGI son support applicatif

Solvay internationalise et mutualise ses ressources informatiques (© Jean-Michel Byl – Solvay photolibrary).

Changement de cap chez Solvay, où le support applicatif, hier assuré en interne, est désormais externalisé au plan mondial chez CGI.

Le groupe chimique Solvay dispose d’une entité centrale pour ses services informatiques partagés, le Solvay business service ou SBS. Il assure les services transverses comme les RH, la comptabilité et les services aux utilisateurs. Indispensable pour un groupe présent dans 55 pays, qui a racheté d’autres entreprises comme le français Rhodia en 2011. Le premier objectif informatique a été de faire converger les systèmes d’information et de créer une entité centrale pour les services mutualisés.

Changement de cap informatique

Aujourd’hui, le groupe passe à une autre phase, celle du développement. Il possède un réseau Wan mondial en propre, des datacenters et SBS pour servir son expansion, en particulier en Inde et en Chine. Il recourt également au CRM de Salesforce et va choisir un MDM pour gérer la mobilité.

Derrière ces changements informatiques stratégiques, le groupe a également décidé de revoir son service support applicatif et de l’externaliser. CGI a été choisi. C’est un contrat à l’échelle mondiale, pour 30 900 salariés. CGI utilisant ce centre de services, celui du Portugal pour l’Europe. Sa mission, selon Solvay est de moderniser ses services et d’améliorer la qualité de services rendus aux clients internes.

 

Datacenter

Cisco augmente le débit de ses solutions réseau WAN et stockage

Les commutateurs pour datacenters de la gamme Nexus 9000 proposent des connexions à 25, 50 et 100 Gb/s.

Les données sont toujours plus nombreuses, et grâce à la mémoire flash, les solutions de stockage sont de plus en plus rapides. Mais il est devenu nécessaire d’augmenter la vitesse des réseaux reliant ces éléments. En faisant évoluer sa série de commutateurs MDS 9000, Cisco accélère le débit des réseaux de stockage et simplifie leur gestion.

Les performances du Fibre Channel et des protocoles à usage général dans le stockage progressent régulièrement. Cisco Systems a annoncé des liaisons longues distances plus rapides sur les réseaux de stockage dédiés à la reprise après sinistre et à la continuité des activités. L’équipementier a également annoncé des vitesses plus élevées pour les réseaux de stockage IP des datacenters et des améliorations dans sa partie logiciels afin de simplifier la gestion du stockage.

« Le Fibre Channel est devenu incontournable dans les réseaux de stockage SAN, car il est fiable et sécurisé », a déclaré l’analyste de 451 Research, Steven Hill. « La majorité des grandes installations d’entreprise l’utilisent alors même qu’il existe depuis des années des systèmes moins chers basés sur IP comme l’iSCSI », a-t-il ajouté. Mais le Fibre Channel ne permet pas de couvrir de grandes distances pour relier deux systèmes de stockage situés dans des régions différentes, si bien que les entreprises doivent se tourner vers d’autres solutions si elles veulent effectuer la réplication de données entre réseaux SAN très éloignés afin d’assurer la continuité opérationnelle ou une reprise rapide après une panne.

Les Nexus passent à 100 Gb/s

C’est pour améliorer le débit entre systèmes Fibre Channel sur des réseaux éloignés que Cisco a doté son dernier commutateur dédié au stockage, le MDS 9700, d’un module d’extension SAN avec plus de ports et des vitesses plus élevées pour le FCIP (Fibre Channel over IP). Le nouveau module est équipé de huit ports 10 Gigabits Ethernet, contre quatre sur les modèles précédents. Et l’an prochain, après une mise à jour logicielle gratuite, la nouvelle carte pourra également accueillir deux ports 40 Gigabits Ethernet. L’équipementier a aussi dévoilé de nouvelles options de vitesse pour le stockage réseau sur IP sur ses commutateurs de datacenters de la gamme Nexus 9000 lesquelles permettront des connexions à 25, 50 et 100 Gb/s. Jusqu’à présent, les vitesses de connexions des réseaux de stockage IP de la série 9000 étaient limitées à 10 et 40 Gb/s. « Les vitesses de 25, 50 et 100 Gigabits sont très utilisées par les grandes entreprises de mise à l’échelle dans le cloud lesquelles déploient des équipements très denses et ont besoin du maximum de vitesse possible sur chaque port », a expliqué l’analyste.

Une autre nouveauté annoncée par Cisco doit simplifier la gestion du stockage. L’équipementier a renforcé son logiciel DCNM (Data Center Network Manager) utilisé pour la gestion des réseaux SAN et LAN, en le combinant avec des fonctions de gestion de baies de stockage. Le logiciel DCNM peut automatiquement lancer des actions sur le réseau en fonction des configurations choisies pour le SAN par l’administrateur. Ces améliorations pourraient faciliter la définition de certaines configurations de stockage courantes. Par exemple, créer un volume de stockage, l’assigner à un hôte, et affecter cet hôte à une cible qui oblige les administrateurs à faire des va-et-vient entre des éléments logiciels distincts afin de gérer le réseau SAN et la baie. Désormais, tout se passe sur un écran unique, et le processus devrait être plus simple. Selon Cisco, « la manipulation se fait en 3 clics, contre 40 auparavant ». La procédure sera également réalisable sur des baies Dell EMC, IBM et d’autres fabricants grâce à des API et des interfaces standard.

 

Datacenter

Microsoft France place Jean-Christophe Dupuy et Thomas Kerjean à la tête de Windows et du cloud

Jean-Christophe Dupuy (à gauche) et Thomas Kerjean prennent en charge, respectivement, les activités Windows et cloud.

Jean-Christophe Dupuy et Thomas Kerjean prennent de nouveaux postes de direction au sein de la division marketing et Opérations de Microsoft.

La filiale Hexagonale de Microsoft fait évoluer l’organigramme de sa division marketing et Opérations dirigée par Laurence Lafont. L’éditeur a en effet nommé Jean-Christophe Dupuy directeur Windows & Devices. Il remplace Agnès Van de Walle qui s’est récemment vue confier le poste de directrice des ventes et du marketing de la division PME/PMI et Partenaires. Jusqu’ici, Jean-Christophe Dupuy était directeur des opérations de Microsoft France depuis 2013.

De son côté, Thomas Kerjean est affecté à la direction Cloud & Entreprise avec notamment pour mission de favoriser l’adoption de la plate-forme Azure. Ancien directeur de cabinet d’Alain Crozier, le président de Microsoft France, il succède à Anne-Lise Touati qui a également changé de poste au sein de l’entreprise

 

Datacenter

OpenCAPI : Vers un transfert de données 10 fois plus rapide que PCIe

L’amélioration de la rapidité et du volume du transfert des données entre les différents composants informatiques est l’enjeu clé du consortium OpenCAPI. (crédit : D.R.)

Dell-EMC, IBM ou encore Google et HPE ont créé le consortium OpenCAPI pour faire émerger un standard de transfert de données qui pourrait être 10 fois plus rapide que PCI-Express 3.0. Certains acteurs se retrouvent également à soutenir un autre protocole également prometteur, Gen-Z.

La bataille pour l’accélération des vitesses de transfert de données est lancée. Dans un contexte où le volume des workloads à traiter – aussi bien en interne que depuis le cloud – ne cesse de progresser, certains acteurs émergent pour remédier à cet épineux problème. C’est le cas du consortium OpenCAPI, créé par plusieurs ténors IT à savoir AMD, Dell EMC, Google, HPE, IBM, Mellanox, Micron, Nvidia et Xilinx. Ce dernier vient ainsi de présenter les spécifications d’un connecteur améliorant de façon très significative la bande passante entre les différents composants d’un ordinateur (stockage, mémoire, GPU, CPU…). 

La vitesse de transfert annoncée est conséquente, 150 gigabits par seconde, soit 10 fois plus grande que celle du standard PCI-Express 3.0. Dans un premier temps, les serveurs et les supercalculateurs seront les premiers à bénéficier de slots OpenCAPI. A terme, cette technologie pourrait trouver sa place dans les PC. Les premiers ports OpenCAPI seront installés dans les serveurs Power9 d’IBM prévus l’année prochaine. Sachant que Google et Rackspace prévoient également de mettre des ports OpenCAPI dans leur serveur Zaius Power9. De son côté, AMD rend également compatible son circuit graphique Radeon compatible avec ce nouveau connecteur. 

OpenCAPI ou la pierre dans le jardin d’Intel et son PCIe

OpenCAPI

Principaux bénéfices d’OpenCAPI dans dans une baie serveur de datacenter. (crédit : OpenCAPI)

Si le consortium OpenCAPI peut bénéficier du soutien des poids-lourd de l’informatique, on notera cependant un absent de taille : Intel. Rien de surprenant à cela quand on sait que PCIe est un standard de transfert de données justement crée par cette société, en 2004, et qu’OpenCAPI veut justement dépasser. « Il est clair qu’aujourd’hui que les datacenters ne peuvent plus seulement compter sur une seule société pour piloter l’innovation », a indiqué à Reuters Doug Balog, responsable Power d’IBM à Reuters. Une pierre dans le jardin d’Intel que ses dirigeants ne manqueront certainement pas d’apprécier à sa juste valeur.

OpenCAPI n’est pas le seul connecteur permettant d’augmenter la rapidité de transfert des données. C’est également le cas de Gen-Z, soutenu également par – presque les mêmes – grands noms de l’informatique (Samsung, Dell-EMC, HPE, AMD, ARM et Micron). La caractéristique du connecteur élaboré par Gen-Z est centré sur l’amélioration de la connectivité entre composants de stockage et également faciliter l’ajout de mémoires non volatiles type 3D Xpoint dans les configurations systèmes. Résultat : la bande passante atteint 112 GT/s ((gigatransfers par seconde) contre seulement 16 GT/s pour un certain PCI-E 4.0.

 

Datacenter