Le Cigref présente des initiatives Green IT significatives

Pour illustre les stratégies de responsabilité écologique en oeuvre dans les grandes entreprises, le Cigref diffuse une étude sur des mises en oeuvres concrètes au sein de ses membres.

Le Cigref vient de publier son étude « Du Green IT au Green by IT, le Cigref publie des exemples d’application dans les grandes entreprises ».

Le Green IT n’est plus guère à la mode. Pourtant, la responsabilité écologique ou l’obligation d’opter pour le développement durable concernent toutes les organisations et, au sein de celles-ci, toutes les DSI. Au delà du seul Green IT, la DSI peut aussi contribuer à la baisse de l’empreinte écologique et économique de l’entreprise entière via le « Green by IT », c’est à dire l’utilisation du numérique pour atteindre un meilleur niveau de développement durable. Le Cigref vient de publier à ce sujet une étude relevant les initiatives les plus marquantes parmi les membres de ce club de très grandes organisations.

Outre les permanents du Cigref, une douzaine de décideurs issus des entreprises membres du Cigref ont donc participé. L’un des principes conducteurs des initiatives est tout de même que l’économie financière est autant recherchée que l’économie en ressources. Le benchmark Green IT, ayant porté sur 9 grandes entreprises privées et publiques, 515 000 utilisateurs et près de 3 millions d’équipements informatiques et télécoms ainsi que 56 400 m² de salles informatiques, a largement été utilisé dans les travaux ayant abouti à cet ouvrage.

Après une synthèse des définitions du domaine, l’étude se consacre à un état de l’art très complet. Mais les exemples précis dans des entreprises déterminées sont cependant rares.

 

Datacenter

Comment Evernote a migré 3 Po de données vers Google Cloud

En 2016, Evernote, spécialisé dans les solutions de synchronisation cloud et mobile de prise de notes, a choisi de migrer l’ensemble de ses données vers les datacenters de Google. Soit 5 milliards de notes et 12 milliards de fichiers pour un résultat à la hauteur des attentes de la start-up.

Vue prise dans un datacenter de Google dans le comté de Douglas en Georgie. (crédit ; Google/Connie Zhou)

La décision d’une entreprise de basculer l’ensemble de ses données jusqu’alors gérées en interne vers le cloud public est loin d’être anodine. Surtout lorsque l’on s’appelle Evernote et que l’on gère pas moins de 5 milliards de notes, 12 milliards de fichiers pesant sur la balance 3 petaoctets de données. Et pourtant, c’est bien ce qu’a décidé de faire la start-up spécialisée dans la prise de notes cloud et mobile en 2016. Mercredi, la société a d’ailleurs annoncé que le gros de la migration avait été effectué. 

Evernote a souhaité tirer parti du cloud pour plusieurs raisons. D’abord pour l’aider à exploiter les fonctions d’apprentissage machine qu’il a développées, et dont se souviennent encore de très nombreux utilisateurs. Mais également pour gagner une agilité venant du fait de ne pas avoir faire tourner un datacenter. C’est d’ailleurs l’une des tendances fortes observées ces dernières années dans de nombreuses sociétés prenant la décision de migrer leurs workloads en dehors de leurs infrastructures vers le cloud public de fournisseurs. Alors que cette transition nécessite pas mal de travail et d’adaptation, Evernote a salué les efforts de Google pour l’aider dans son gigantesque projet.

Pourquoi migrer vers le cloud ?

Le travail à mener était réellement énorme, d’autant qu’à la base, le backend d’Evernote a été conçu pour tourner sur les deux datacenters jumeaux de la société, pas sur un cloud public. Beaucoup de temps a ainsi dû être passé pour maintenir l’activité comprenant le remplacement des disques durs, le déplacement des câbles et évaluer les nouvelles options d’infrastructure. Mais si ces fonctions étaient clés pour maintenir la bonne santé globale et la performance du service Evernote, elles n’apportaient pas de valeur ajoutée pour les clients, d’après Ben McCormack, vice-président des opérations de la société. 

En termes de fournisseurs dans le cloud, Evernote n’avait que l’embarras du choix entre Amazon Web Services, Microsoft Azure, Google Cloud… Ce qui a emporté le choix d’Evernote est lié aux similarités entre son focus actuel et les domaines d’expertise de Google, la start-up hébergeant un grand volume de données avec pour objectif de les exploiter via du machine learning. « Nous avons fait un choix stratégique et ces domaines qui sont importants aujourd’hui le seront aussi demain et ce sont les mêmes dans lesquels Google excelle », a expliqué Ben McCormack. Alors que le coût est souvent cité comme principal bénéfice des migrations vers le cloud, M. McCormack a indiqué que cela n’a pas constitué un critère principal aux yeux d’Evernote, ni un frein à sa migration. Un autre élément a fait pencher la décision de la société vers Google. Son CEO, Chris O’Neill, a été un ancien de la firme de Mountain View pendant 10 ans ce qui a permis, aux dires du directeur de la communication de la start-up, Greg Chiemingo, d’apporter une aide précieuse dans la négociation.

Des metadata en plus des notes et des pièces jointes 

Signé en octobre, l’accord de migration a suivi rapidement son cours avec, dès la fin d’année, la nécessité de migrer 5 milliards de notes et autant de pièces jointes. A cause des metadata, telles que les images thumbnails, incluant celles des fichiers joints, le volume total des fichiers à migrer s’est élevé à 12 milliards. Sachant que le principal objectif a été de procéder à la migration sans perdre un octet des 3 Po de données stockées dans les datacenters d’Evernote. Une partie de la transformation a consisté à repenser le service réseau. Evernote utilisait auparavant UDP Multicast pour gérer une partie de son workflow de reconnaissance d’image, qui fonctionnait bien dans le centre de données de l’entreprise, où il pouvait contrôler les routeurs de réseau. Mais cette même technologie n’était pas disponible dans le cloud de Google, ce qui a nécessité une adaptation de son application pour utiliser un modèle basé sur la file d’attente en s’appuyant sur le service Cloud Pub/Sub.

Les équipes de Google ont accompagné Evernote dans sa migration de très près sur une plage horaire 24/7 afin que tout se passe de la meilleure façon possible et pallier à tout incident. En tout, la migration s’est déroulée sur 70 jours, avec la plus grosse partie sur 10 jours en décembre. Pour Evernote, une chose est claire : même avec les projets les plus exigeants, une équipe doit pouvoir être prête à s’adapter à la volée à un nouvel environnement. Et cela n’a pas toujours été simple. Par exemple, Google a dû utiliser des techniques de migration en direct pour déplacer des machines virtuelles d’un hôte vers un autre afin d’appliquer des correctifs et contourner les problèmes matériels. Quoi qu’il en soit, de l’avis d’Evernote, son projet de migration a montré que le cloud est prêt pour supporter n’importe quel sorte de workload.

Des gains de latence et de chargement de pages réduits 

Mais quid des bénéfices ? L’un des principaux pour Evernote, c’est que le cloud de Google a permis de réduire la latence et d’améliorer la consistance de la connexion à l’international. Le temps de chargement des pages a également été réduit. Actuellement, il reste une dernière salve de pièces jointes à migrer avant la fin définitive du projet de migration. Pour la suite, la start-up prévoit de tirer parti de quelques autres fonctionnalités du cloud de Google mais aussi d’autres services à venir. Elle compte notamment utiliser Google Cloud Functions, permettant aux développeurs d’écrire des snippets de code exécutables. Des tests alpha portant sur la Cloud Platform mais encore jamais publiquement révélés au public sont dans les tuyaux et serviront au déploiement de nouvelles fonctionnalités inclues prochainement dans Evernote.

 

Datacenter

L'IGN migre ses salles informatiques dans un datacenter

Pascal Chambon, directeur des Services et du Système d’Information de l’IGN, a mis en œuvre un projet de deux ans avec Critical Building, Cap Ingelec / Mannucci, Ingenova, Minkels, Raritan et Corning. (crédit : D.R.)

Pour parer au manque d’adéquation de 5 salles informatiques par rapport à ses nouvelles exigences qualité, l’Institut National Géographique les a migré vers un seul et unique datacenter. Ce dernier a été construit avec Critical Building et Cap Ingelec / Mannucci.

L’Institut National de l’Information Géographique et Forestière (IGN) est un établissement public opérant pour le compte de l’Etat l’information géographique et forestière. Il produit des services basés sur ces informations, comme l’édition de cartes, qui sont régulièrement développés grâce à cinq laboratoires de recherche. Avec ses 1 710 collaborateurs, il génère ainsi un chiffre d’affaires de 171 millions d’euros. Son activité est basée sur un important patrimoine de données. Or les cinq salles informatiques de son siège de Saint-Mandé (à l’Est de Paris) n’étaient plus à la hauteur de ses exigences d’autant que l’IGN aussi connaît en ce moment une révolution numérique. La création d’un nouveau datacenter remplaçant ces cinq salles a donc été décidée en 2015.

Un appel d’offres européen a été lancé cette année là par la DSI de l’IGN, forte de 200 personnes, visant à l’urbanisation de ce nouveau datacenter. Celui-ci devait bénéficier des meilleures pratiques en sécurisant et pérennisant les infrastructures de production informatique comme le patrimoine numérique de l’établissement. Il devait donc être capable de de monter en puissance tout en étant parfaitement fiable. L’informatique est en effet un élément « coeur de métier » de l’IGN.

Deux appels d’offres successifs

Suite à l’appel d’offres de 2015, de novembre 2015 à février 2016, l’IGN se fait accompagné par Critical Building en assistance à maîtrise d’ouvrage. La maîtrise d’oeuvre des lots de courants forts, de climatisation, de détection/extinction incendie, de gestion technique et de faux planchers est, elle, confiée à Cap Ingelec / Mannucci.

Un deuxième appel d’offres est alors remporté par Ingenova en 2016 pour assurer le déménagement de 300 serveurs et la mise en place des équipements informatiques. Trois partenaires habituels de cette société ont été mobilisés par elle : Minkels (groupe Legrand) pour les baies et confinement, Raritan (groupe Legrand) pour la distribution électrique et le management énergétique des baies et Corning pour les solutions de câblage en fibre optique.

Une prise en compte des besoins informatiques

Ingenova a notamment été chois par sa capacité à aller au delà du seul déploiement d’infrastructures. Elle a pu analyser précisément les besoins de la DSI et anticiper ses évolutions de telle sorte à la séduire.
Au final, le nouveau datacenter comprend 2 couloirs froids, avec air froid confiné, de 2×11 baies soit 44 baies. L’alimentation électrique repose sur 68 PDU (Power Distribution Unit, contrôleurs électriques). Le contrôle des machines utilise 32 KVM-IP (commutateurs écran-clavier-souris pour passer d’un serveur à un autre via le réseau IP) et une solution de prise en main à distance via interface web. Enfin, le câblage comprend 800 liaisons cuivre RJ45, 250 liaisons optiques LC Duplex et 150 liaisons optiques PMO/MTP.

 

Datacenter

Infrastructures cloud EMEA : Dépenses en hausse de 19,5% au 3e trimestre 2016

Evolution des dépenses d’infrastructures par types de déploiements entre les troisièmes trimestres 2015 et 2016. (crédit : D.R.)

Les dépenses en infrastructures cloud ont progressé de 8% dans le monde mais de 19,5% en zone Europe Moyen-Orient et Afrique. Elles pèsent maintenant près du quart des dépenses d’infrastructures informatiques totales dans cette région.

Au troisième trimestre 2016, les dépenses consacrées à la mise en place ou au renforcement d’infrastructures cloud (serveurs, stockage et commutateurs Ethernet) ont progressé de 8,1% dans le monde par rapport à la même période en 2015, selon IDC. En comparaison, la hausse des investissements des entreprises de la zone EMEA dans ce domaine a été plus de deux fois supérieure en atteignant précisément +19,5%, soit 1,5 Md$. La région doit une grande part de son dynamisme au Moyen-Orient et à l’Afrique où le marché a crû de 36,7%. Néanmoins, l’Europe de l’Ouest est loin de démériter puisque les revenus du secteur s’y sont appréciés de 16,8%. C’est moins qu’au Japon (+29,9%) et en Amérique Latine (+21,7%) mais largement mieux qu’aux Etats-Unis (+2,9%).

A la lumière des résultats enregistrés au troisième trimestre 2016, on constate que la part des dépenses consacrées aux infrastructures cloud dans l’ensemble du marché des infrastructures IT en EMEA a progressé de de 6 points en un an pour représenter 24,9%. La part du stockage hébergé a fait un bond encore plus important (+8,6%) et atteint 44,8% de l’ensemble des capacités livrées dans la région. De son côté, le marché des infrastructures IT traditionnelles a connu une baisse trimestrielle de revenus de 8% à 6,7 Md$.

10,9 Md$ pour les infrastructures cloud en 2020

«Nous prévoyons que le marché des infrastructures cloud représentera 10,9 Md$ en EMEA en 2020, soit 35% de l’ensemble des dépenses en infrastructures dans la région à cette date, indique Kamil Gregor, analyste chez IDC. Cette croissance va se nourrir d’une maturité toujours plus importante des entreprises mais également de l’adoption grandissante de beaucoup de nouvelles technologies dépendantes du cloud tel que l’IoT. »Point négatif : la mise en conformité des entreprises avec la régulation de l’Union Européenne (Règlement général sur la protection des données) a inhibé l’adoption du cloud en 2016 et aura peut-être aussi cet effet cette année.

 

Datacenter

Oracle dévoile ses projets pour rattraper AWS

Nettement distancé par AWS, Microsoft ou encore Salesforce, Thomas Kurian, président en charge des produits chez Oracle, entend regagner du terrain sur le marché des services cloud. (Crédit D.R.)

Hier, les dirigeants d’Oracle ont dévoilé les résultats de travaux d’ingénierie et de développement que l’entreprise mène depuis plusieurs années sur son cloud public IaaS. Ils ont annoncé un nouveau service de base de données bare metal dans le cloud et une expansion géographique internationale. Le fournisseur mise sur les serveurs Bare Metal, sur un renforcement de ses bases de données hébergées et sur le développement applicatif pour s’imposer un peu plus sur ce marché.

Oracle n’est pas considéré comme un des leaders du cloud public IaaS. Mais l’entreprise espère devenir un rival plus sérieux en combinant ses services d’infrastructure – axés sur des services de base de données – avec une suite de développement d’applications et de logiciels. Lors de son événement Cloud World qui s’est tenu hier à New York, les dirigeants de l’entreprise ont dévoilé leur stratégie pour rivaliser avec des concurrents comme Amazon Web Services, Microsoft Azure et Salesforce.com.

Dans une déclaration restée célèbre, le fondateur et désormais CTO d’Oracle, Larry Ellison, avait remis en question la notion même de cloud, estimant que la technologie n’était qu’une tendance à la mode. Depuis, l’entreprise a investi massivement dans l’ingénierie pour construire sa plate-forme cloud, et elle a commencé à livrer ce que les analystes appellent un produit viable a minima sur le marché du cloud public IaaS.

Des instances serveurs pour tous les besoins

Hier, Oracle a expliqué comment elle prévoyait de faire évoluer son offre cloud dans les domaines suivants. Le cloud IaaS d’Oracle propose trois types d’instances : des serveurs Linux et Windows physiques, c’est à dire non virtuels, qui permettent d’isoler les charges de travail des clients ; des serveurs virtuels, sur lesquels les clients partagent des ressources d’infrastructure avec d’autres clients ; et des serveurs bare-metal exécutant des conteneurs Docker. « Aucun autre acteur du cloud public n’offre cette capacité », a déclaré le président produits d’Oracle, Thomas Kurian. Selon lui, les serveurs physiques de l’entreprise permettent d’isoler à 100 % les charges de travail. À noter cependant qu’IBM propose aussi des serveurs bare metal.

Par ailleurs, sur ce marché, les offres de computing sont très différentes. On trouve aussi bien des machines bon marché (à 0,10 dollar HT de l’heure) que des machines intégrant entre 32 et 44 processeurs Intel, 1 To de DRAM, assorties d’offres de stockage en local allant de 29 à 60 To et pouvant offrir jusqu’à 1 million d’I/O par seconde (IOPS). Thomas Kurian prétend que le cloud d’Oracle revient 20 % moins cher que celui d’AWS, pour 7 à 10 fois plus de performance. 

Réseau : Thomas Kurian affirme aussi que le cloud d’Oracle est construit sur un réseau virtualisé qui isole le trafic client dans des réseaux virtuels « entièrement encapsulés ». Selon lui, cette configuration permettrait une meilleure qualité de service – elle éliminerait notamment l’effet « noisy neighbor », un problème d’interférence affectant les hébergements partagés – et une meilleure sécurité.

Stockage : Le cloud d’Oracle propose des systèmes de stockage objet, bloc et fichiers.

Bases de données : Selon Thomas Kurian, les bases de données d’Oracle représentent le plus grand élément différenciateur. Le prix des bases de données d’Oracle démarre à 175 dollars HT par mois. Elles peuvent offrir jusqu’à 240 To de stockage et intégrer jusqu’à 246 cœurs physiques, sans compter les plates-formes Exadata hébergées. Elles utilisent toutes le même langage API et SQL. « Le cloud  d’Oracle supporte plus de 500 projets open source », a également précisé Thomas Kurian.

PaaS et gestion des clouds : le PaaS d’Oracle a été conçu pour satisfaire deux types de développeurs : les codeurs professionnels et les utilisateurs métiers dans les entreprise. Ces derniers utilisent souvent une interface graphique par glisser-déposer pour développer des applications simples. « Sur le PaaS d’Oracle, les applications plus sophistiquées de microservice peuvent être contrôlées par Kubernetes », a encore déclaré Thomas Kurian. Par ailleurs, il est possible d’utiliser le portail de gestion du cloud du fournisseur pour contrôler des plates-formes de cloud public sur site et d’autres plateformes de cloud public. Les administrateurs peuvent configurer leurs stratégies pour sauvegarder ou patcher leurs ressources automatiquement selon un calendrier précis.

Services SaaS : à côté des fonctionnalités IaaS et PaaS, Oracle dispose d’un set d’outils SaaS puissants, qui comprend aussi bien des applications CRM, ERP, HCM que des applications verticales spécifiques à l’industrie.

Expansion géographique : Oracle a annoncé son intention d’étendre cette année son cloud à trois autres régions : Virginie, Turquie et Londres. Ce qui portera à 29 le nombre de régions couvertes par l’entreprise à travers le monde. « Oracle mérite d’être félicité pour son enthousiasme et sa stratégie proactive sur le marché du cloud », a déclaré Charles King, analyste chez Pund-IT, qui rappelle que « l’entreprise avait besoin de rattraper son retard sur ce marché ». L’approche adoptée par Oracle ressemble à celle de Microsoft et IBM, lesquels offrent également des services IaaS, PaaS et SaaS pour couvrir les trois couches du cloud. « Oracle dispose toujours d’une base massive de clients demandeurs de services cloud. La question est de savoir s’ils choisissent Oracle comme fournisseur de cloud, par opposition aux fournisseurs avec lesquels ils travaillent actuellement, ou s’ils choisissent un fournisseur plus établi et plus novateur ». Selon Charles King, le cloud d’Oracle sera sans doute plus attrayant pour les clients existants, mais il se demande comment l’entreprise réussira à attirer de nouveaux clients.

 

Datacenter