Serveur, datacenter : un futur incertain mais tellement excitant

Cela fait plusieurs mois que nous nous posons des questions sur l’avenir des serveurs. Les difficultés des constructeurs historiques sont réelles. Les initiatives tels que l’Open Compute remodèle le rôle du constructeur. Les processeurs ARM ne demandent qu’à disrupter le marché et la notion même de serveurs. Pour nous, l’avenir du serveur n’est pas dans le x86 mais dans d’autres types de processeurs et d’architectures globales. Oui, x86 demeure plus puissants mais est-ce suffisant pour faire du serveur et des datacenters uniquement x86 ? Il faut reconnaître que ces processeurs dominent le marché serveur. Les CPU propriétaires sont largement marginaux : Power, SPARC pour ne citer qu’eux. ARM peut redéfinir le marché et proposer une densité et des forms factors nouveaux. Oui Intel améliore la consommation énergétique et propose des techniques d’optimisation très intéressantes mais nous sommes proche du mur.  

La présentation des serveurs Gen10 de HPE nous a beaucoup intéressé, pas spécifiquement pour les nouveaux serveurs du constructeur, mais pour les tendances technologiques et les pistes ouvertes pour le futur du serveur et du datacenter. D’ailleurs, HPE et Intel n’ont pas caché leurs ambitions d’ici 2020-2025. 

Une des pistes est la notion de datacenter composable à la volée. A partir des baies serveurs de son datacenter, on peut utiliser les ressources compute, mémoire, réseau, stockage, sécurité de telle ou telle machine. On compose son infrastructure. Ce n’est pas totalement nouveau car on le faisait déjà notamment sur la partie stockage virtualisé et fédéré. Mais là on veut passer encore au-dessus. Une sorte de nouvelle génération Software Defined DataCenter (SDDC). Nous n’aurions plus des machines fixées en utilisation mais une infrastructure (de ressources) capable de se modifier à la volée selon la charge, l’usage. L’infrastructure physique reste la même mais c’est la manière de l’utiliser et de la consommer qui change. Cela passe par un niveau logiciel pour composer et opérer cette infrastructure. Cela passe aussi par des API dédiés. HPE investit dans ce domaine avec la gamme Synergy. C’est une des pistes pour la prochaine génération de datacenter. On passera par de l’infrastructure as code, des templates d’infrastructure. Ces notions sont déjà là mais le but est de les généraliser. 

La volonté de densifier toujours plus les serveurs, le stockage, la mémoire, oblige à repenser le serveur. L’hyperconvergence, l’hyperscale l’obligent aussi. Mais il ne faut pas une dépense énergétique supérieure ni un dégagement de chaleur en hausse. Comment refroidir des datacenters toujours plus dense ? On peut déjà reconfigurer une partie des datacenters actuels avec ces approches mais le coût financier est conséquent. Et les cycles de vie du datacenter ne sont pas forcément rapides. HPE parle d’intégrer compute, stockage et réseau pour réduire et optimiser les serveurs, les baies. 

L’efficacité du datacenter passe par une meilleure saturation des ressources. Le serveur doit être intelligent pour s’adapter au contexte d’usage, aux contextes de charge. Activer tous les coeurs et l’ensemble des ressources du serveur n’est pas intéressant quand il fonctionne à 10-15 %. Il faut pouvoir dynamiquement, avec une faible latence, activer et désactiver les ressources. On peut aujourd’hui être très fin sur la gestion des coeurs et des CPU, établir une cartographie précise comme sur les moteurs de F1 (regardez les techniques Turbo, Core Boosting, workload matching). Le plus difficile est de trouver un équilibre entre la consommation énergétique, le contexte thermique, la charge réelle, tout en lissant les performances pour ne pas avoir des pics et des creux de performances. Monter brusquement en performances n’est pas sans conséquences sur l’élévation thermique et la consommation électrique. Et finalement, est-ce une bonne approche ? Une approche prédictive (avec de l’IA, du machine learning) serait bien meilleure. 

Le travail actuel sur la mémoire, les caches est particulièrement sensible. Malgré tous les efforts, la RAM est bien plus lente que les caches intégrés aux processeurs. Il y a une différente de coût et de capacité. Mais demain, il s’agira d’intégrer la RAM dans les CPU / sockets pour réduire la latence et permettre un interfaçage ultra rapide entre les composants. Et donc améliorer les performances des données et des applications. La tendance in-memory n’est pas sans conséquence non plus. A vouloir tout mettre en mémoire, quand celle-ci crashe ou quand le serveur reboote, on perd tout ou partie des données in-memory. Car la RAM est par définition une mémoire volatile et non persistante. Aujourd’hui, il s’agit de rajouter sur les barrettes mémoires, ou créer un mécanisme équivalent, des zones de stockages flash pour persister les données in-memory en cas de problème. Autre technique, ajouter de petites batteries à la RAM pour avoir le temps de basculer les données in-memory sur des supports persistants. Pour HPE / Intel, la convergence mémoire - stockage n’est pas une illusion mais une réalité. 

Il y a aussi les contraintes physiques des matériaux. Aujourd’hui, le câblage interne en cuivre est la norme. C’est fiable, maîtrisé, pour un coût très raisonnable. Mais comment accélérer la communication entre les composants ? Comment réduire les frictions liées aux matériaux ? Depuis plusieurs années on parle de photonique dans les serveurs pour booster les bandes passantes et faire exploser les transferts de données. Par photonique, on attend l’usage de la fibre optique (donc de la lumière) à l’intérieur même des serveurs, des sockets et dépasser les 100 Gb / seconde. Pour Intel, il s’agit d’un défi technologique capitale pour dépasser les contraintes et les limitations actuelles. Avec en tête la fameuse loi de Moore qui est toujours brandi par les constructeurs et les fondeurs. 

HPE parle de nouvelles générations de serveurs / datacenters photoniques, en remplacement totalement ou partiellement du cuivre, d’ici 2020-2025. Reste à voir si les fondateurs et les constructeurs pourront stabiliser la technologie et à quelle échelle ? Et le coût final pourrait exploser pour les opérateurs de datacenters et les utilisateurs. Au moins dans un premier temps.  

A court terme, les constructeurs ont peur du cloud public et du rôle des géants du cloud. Le cloud privé, et hybride, peut leur permettre préserver leur marché tout en promettant la même souplesse que le cloud public. Au-delà, il s’agit aussi de repenser le serveur, et donc le datacenter.