En 2020, le monde confiné s’est tourné vers Internet pour communiquer, travailler, se divertir et s’informer. Résultat : une hausse de près de 40% du trafic Internet mondial et une sur-sollicitation des infrastructures des principaux fournisseurs de contenus et services, à commencer par leurs datacenters.

Selon le cabinet Synergy Research, les géants du cloud opèrent aujourd’hui plus de 600 datacenters dans le monde, deux fois plus qu’il y a cinq ans. Cette frénésie de construction a permis de soutenir la présence croissante du numérique dans notre société mais la viabilité à long terme d’une telle dynamique est remise en cause.

La course est donc lancée pour trouver des solutions alternatives plus durables. Pour l’industrie il s’agit de répondre à un impératif économique – construire des datacenters coûte cher – et écologique – pour faire plus avec moins et réduire son impact environnemental, alors même que la dépendance de notre économie au numérique va croissant.

Le défi de la densité de puissance à l’heure de la transition énergétique

Les datacenters traditionnels ont souvent été construits selon un même schéma à densité statique. Ainsi, l’espace, la puissance et les systèmes de refroidissement sont pensés en tenant compte d’une certaine densité par mètre carré. Concrètement, une entreprise qui a besoin de plus de puissance doit acheter plus d’espace. Cette approche est contraire à la dynamique de rationalisation des ressources amorcée depuis quelques années par le secteur du numérique. Pire encore, elle mène droit à une impasse.

Pour accueillir nos besoins actuels, les plus grands data centers du monde peuvent atteindre une surface de plusieurs centaines de milliers de mètre carrés. Qu’en sera-t-il dans dix ans ?

Les datacenters haute densité promettent de mettre fin à cette fuite en avant, en offrant un plus faible encombrement pour une puissance de calcul supérieure.

En plus des avantages environnementaux évidents qui découlent de la construction de structures plus petites, les entreprises profitent de réductions importantes de leurs coûts immobiliers, auxquelles s’ajoutent des réductions de coûts opérationnels. En divisant par deux le nombre de racks de serveurs pour une puissance équivalente, on divise par deux le nombre de câbles ou encore de commutateurs réseaux à acheter, installer et entretenir. En revanche, ce changement de modèle implique également de nouveaux défis, car les racks plus denses consomment davantage d’énergie… et donc produisent plus de chaleur.

Afin de réduire le PUE (Power Usage Effectiveness) de ces modèles plus puissants, il est primordial de miser sur l’optimisation de leur refroidissement. Combiner les systèmes de refroidissement par air et liquide, pourrait répondre aux défis engendrer par ces nouveaux modèles plus puissants.

Plusieurs systèmes peuvent être déployés pour minimiser les déperditions d’énergies, et ce selon la densité de puissance de l’installation. Ainsi, un système de refroidissement à eau glacée permettra d’économiser de l’énergie lors de l’exploitation et la maintenance. Un système de refroidissement par évaporation indirecte peut réduire le temps de déploiement et simplifier l’exploitation et la maintenance. Enfin, en utilisant des ressources naturelles de refroidissement, la consommation d’énergie du système de refroidissement peut être considérablement réduite.

Rendre les infrastructures datacenters plus agiles et plus durables

Avec l’apparition de la 5G et l’évolution des usages numériques, la quantité de données à stocker augmente de façon exponentielle dans tous les secteurs d’activité. Pour soutenir ces évolutions et les entreprises, les infrastructures datacenters doivent répondre à plusieurs contraintes simultanément : rapidité, agilité, durabilité.

Aujourd’hui, le besoin pour les entreprises réside dans l’adaptation de ces infrastructures et de leurs offres. Les constructeurs tentent d’y répondre en proposant de nouveaux modèles, tels que la conception modulaire des datacenters. Avec ces installations, il est possible de modulariser complètement son infrastructure en allant du choix des composants, à l’architecture de la salle d’équipement, ce qui réduit le temps de déploiement et permet d’avoir une installation adaptée.

Par exemple, le système d’alimentation et de distribution électrique d’un datacenter traditionnel est complexe et fragmenté. En optant pour une conception modulaire, l’architecture d’alimentation peut être simplifiée et permettre de réduire les temps de conversion de l’énergie, de raccourcir la distance et l’empreinte de l’alimentation, ou encore d’améliorer le taux d’utilisation de l’espace et donc l’efficacité énergétique du système.

Enfin, pour optimiser l’activité et les services proposés par l’infrastructure, l’intégration d’équipements dotés des derniers systèmes de technologies est primordiale. L’évolution des IoT ou encore une forte intégration de l’IA permettra notamment d’arriver à une numérisation et un pilotage automatique sur l’ensemble du cycle de vie en termes de planification, de construction, d’exploitation, de maintenance et d’optimisation.

Les défis auxquels les datacenters font face sont multiples : répondre aux enjeux de la transition énergétique, avoir des infrastructures toujours plus performantes ou encore proposer des solutions plus agiles, tout en répondant à la contrainte de rentabilité.

Ces enjeux d’évolution sont stratégiques pour les datacenters, qui sont l’un des composants essentiels à la transition numérique des entreprises. La tendance à laquelle doivent répondre ces infrastructures à l’avenir, c’est la possibilité d’en faire plus, avec moins de complexité.



jeudi, mai 12, 2022





« Retour