Connecting Networks

Articles taggés avec : centre de données

Le Continuum des Data Centers

Le mardi, 25 juin 2019. Posté dans News Rezopole News LyonIX News GrenoblIX

Le Continuum des Data Centers

La tendance visionnaire des années 2010 positionnait massivement les surfaces des centres de données dans des DC Hyperscale, idéalement situés dans des zones proche du cercle polaire. A l’époque seule la question des risques systémiques semblait pouvoir ralentir cette évolution.

 

Mais aujourd’hui la réalité n’est plus du tout la même. En effet, un modèle de continuum est venu remplacé cette vision d’hyper-concentration des surfaces, qui peut se résumer en 6 niveaux.

  • Les Data Centers Hyperscales conservent toujours leur attrait pour des stockages de masse et des traitements non transactionnels. Leur objectif est d’amener le meilleur coût de production, en positionnant une grande mutualisation de surface là où le foncier et l’énergie sont bon marché.
  • Les Data Centers Hubs sont principalement positionnés à Frankfort, Londres, Amsterdam et Paris en Europe. Ces zones concentrent des centres de données de grande taille et bénéficient d’une interconnexion rapide entre eux. Ces espaces sur-attirent les opérateurs car l’interconnexion prime sur le potentiel du marché local.
  • Les Data Centers Régionaux, localisés dans toutes les autres villes significatives, adressent cette fois-ci le potentiel économique local, avec des acteurs de Cloud pour les entreprises ou des hébergeurs agissant en premier niveau d’accès vers les DC Hubs.
  • Les Data Centers « 5G » vont s’installer au plus près des zones urbaines afin de répondre au besoin de latence requis par les usages des populations.
  • Les micro-Data Centers vont amener une faible latence lors d’une concentration importante d’usage (un stade, une usine).
  • Les pico-Data Centers vont adresser l’usage du particulier, amenant ainsi une latence minimum et surtout une gestion des données privées.

 

Malgré des tailles différentes, les trois premiers niveaux de ces centres de données répondent aux mêmes principes de conception. A ceci près que les Data Centers Hyperscales sont souvent mono-utilisateurs. Il leur est donc possible de positionner des choix de conception plus restrictifs que dans les colocations.

Les trois derniers niveaux appartiennent à l’univers du Edge et visent à positionner l’espace des DC au plus près des usages. En revanche, ces niveaux répondent à des principes de conception différents.

L’installation se fera de manière industrielle pour les micros et pico-Data Centers. Les problématiques principales seront plus liées à la protection physique ou à la maintenance / exploitation de ces infrastructures.

Les Data Centers « 5G » amène une nouvelle donne. En effet, ils ont tout du « petit » DC mais doivent être implémentés dans des environnements complexes. Ils subissent de nombreuses contraintes de sécurité et de respect des normes étant positionnés dans des zones urbaines. Cependant, la plus grande complexité réside dans le manque de place pour déployer les lots techniques.

 

 

 

 Lire l'article

 

Source : Global Security Mag

 

 

 

 

Concevoir aujourd’hui des DC pour demain

Le mercredi, 27 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Concevoir aujourd’hui des DC pour demain

Comment parvenir à construire des infrastructures informatiques de manière durable et pérenne pour les 20 prochaines années ? Quels sont les éléments importants à prendre en compte lors de la phase de conception ?

 

Même si en apparence construire des centres de données peut paraître assez facile, il s’agit d’un secteur évoluant rapidement. En effet, aujourd’hui les salles se densifient, les serveurs consomment de plus en plus d’énergie et sont plus lourds. Des concepts de modularité bousculent le marché tous les mois, les gammes évoluent vite pour répondre davantage aux besoins des utilisateurs…

 

C’est pourquoi l’adaptabilité et la modularité doivent faire partie des solutions à ces problématiques dès les phases de conception. Comme par exemples, choisir des solutions de refroidissement et électriques modulables, augmenter la puissance et monter en charge lors des maintenances, designer les gros équipements en les surdimensionnant.

Il peut également être très utile de mettre en place de nouvelles méthodes de travail type Agile. Il est donc primordial d’être flexible et de s’adapter à ces changements qui peuvent affecter le projet durablement.

La modularité est aussi un point indispensable lors de la conception notamment si l’on choisit un lieu atypique pour implanter son centre de données. Cependant, des aspects légaux ou réglementaires peuvent aller à l’encontre de cette modularité. Il faut donc aborder au plus tôt ces problématiques qui ont souvent des délais incompressibles…

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

Développement des DC français

Le mercredi, 20 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Développement des DC français

Interviewé par LeMagIT, Olivier Micheli constate que les centres de données français séduisent enfin les acteurs internationaux du Cloud et qu’ils se développent géographiquement afin de réduire les latences.

 

Exerçant à la fois les fonctions de PDG de Data4 Group et de Président de l’association France Datacenter, Olivier Micheli estime à 200 le nombre de grands datacenters en France pouvant atteindre jusqu’à 10 000 m². La capitale réunissant le plus grand nombre car Paris est un nœud d’interconnexion européen.

On dénombre entre 3000 et 5000 salles informatiques privées de taille et puissance variables à travers le pays.

Au-delà du souhait des entreprises d’avoir la main sur leurs équipements, l’importance d’une latence toujours plus faible pèse de plus en plus dans les activités économiques locales et le développement des villes intelligentes.

Selon Olivier Micheli, le marché tend vers des centres de données dont la taille est proportionnelle à celle de l’activité économique à proximité.

 

Après une période creuse entre 2012 et 2015, le marché des datacenters français a rattrapé son retard. La France se place aujourd’hui en quatrième position en Europe ex-aequo avec l’Irlande. Plusieurs raisons à cela : l’opportunité pour les entreprises internationales de s’adresser à 67 millions d’individus depuis des ressources IT hébergées localement, l’importance géostratégique de Marseille et aussi les efforts du gouvernement pour créer des conditions favorables au développement de ces datacenters.

Ce qui permet enfin à l’Hexagone de s’aligner sur le Royaume-Uni, l’Allemagne ou encore les Pays-Bas.

 

Les clients de ces centres de données sont à 70 % des acteurs du Cloud public tels que Amazon, AWS mais également des éditeurs comme Salesforce. Les entreprises utilisatrices souhaitent quant à elles beaucoup d’accompagnement.

 

Le premier enjeu des datacenters est, selon Olivier Micheli, la connectivité. En effet, les entreprises souhaitent désormais bénéficier d’une salle informatique délocalisée afin de redistribuer ces données vers les usagers et les acteurs d’Internet.

Le second enjeu est celui du bâtiment intelligent et d’atteindre 100 % d’énergie renouvelable en utilisant par exemple le Free Cooling.

 

 

 

 Lire l'article

 

Source : LeMagIT

 

 

 

 

Data centers : coup de chaud sur nos données

Le jeudi, 06 septembre 2018. Posté dans News Rezopole News LyonIX News GrenoblIX

Data centers : coup de chaud sur nos données

Situé au sud de Paris, le campus de Data4 héberge les données de grandes entreprises du CAC 40. Parmi les neuf data centers répartis sur 111 hectares, se trouve le DC05. Ce centre de données de nouvelle génération, en service depuis fin 2017, dispose d’une façade unique, bardée de blocs capables d’aspirer l’oxygène extérieur. « Une fois filtré, cet air à température ambiante sert à refroidir le cœur du bâtiment, ou la température de certains composants peut facilement monter à 60°C. Ce système de free cooling remplace les réserves d’eau glacées et les grosses armoires à froid mécanique utilisées dans les data centers plus anciens » explique Jérôme Totel, directeur du site.

 

Le free cooling est à la mode et tend à s’imposer, essentiellement pour des raisons économiques. En effet, les data centers consomment près de 10 % de l’électricité mondiale. « Et près de la moitié de cette énergie sert à faire fonctionner les systèmes de refroidissement » explique Guilhem Cottet délégué général de France Datacenter. Aujourd’hui, la fourchette de température de l’air envoyé dans les salles de serveurs est bien plus élevée qu’il y a dix ans. Effectivement, les directives internationales préconisent entre 20 et 27°C.

 

Cela n’empêche que « refroidir un data center est une véritable science » résume Jean-Michel Rodriguez, directeur technique chez IBM. Les températures et l’humidité ambiantes des pays d’Europe du Nord assurent naturellement un bon refroidissement tout au long de l’année, ce qui permet d’utiliser plus facilement le free cooling. Ce n’est cependant pas le cas avec un climat plus méditerranéen puisque ce système ne peut fonctionner qu’une partie de l’année. Les hébergeurs comptent donc souvent sur des installations plus modestes comme une simple climatisation couplée à des « allées froides ». « Chaque année compte son lot de nouveautés. On est dans l’optimisation permanente » confirme François Salomon, spécialiste du free cooling chez Schneider.

 

C’est par exemple le cas de Facebook qui a révélé en juin dernier un dispositif associant le free cooling et l’eau ou encore Lenovo qui mise lui sur le liquid cooling. 2CRSI, une entreprise strasbourgeoise, propose quant à elle un système de refroidissement mutualisé. Beaucoup de chercheurs travaillent actuellement sur des algorithmes capables de baisser la consommation des serveurs. Même si l’indicateur d’efficacité énergétique des data centers s’est nettement amélioré ces dernières années, certains experts tirent la sonnette d’alarme. « Les besoins en calcul et en énergie vont augmenter de manière exponentielle. Pour développer l’intelligence artificielle, optimiser le refroidissement ne suffira pas. Si bien qu’il faudra repenser la conception de nos centre de données » avertit Pierre Perrot de CryoConcept.

 

Un constat qui conduit les ingénieurs a développé des technologies diamétralement différentes comme l’immersion. Asperitas immerge désormais ses serveurs dans de l’huile. « C’est un liquide non conducteur et non corrosif qui absorbe jusqu’à 1 500 fois plus de chaleur que l’air » précise Pierre Batsch, chargé du développement de la société en France. Ainsi il n’y a plus de besoin de climatisations, de faux plafonds, d’allées froides, etc. Alors qu’Alibaba a déjà annoncé un projet similaire pour une partie de ses serveurs, d’autres acteurs comme les usines de « minage de cryptomonnaies » ou du monde la finance se montrent également intéressés par cette solution.

 

Microsoft a décidé lui de plonger une partie de ses infrastructures dans l’océan. « L’eau est 800 fois plus dense que l’air. Lorsque vous la touchez, vous êtes en contact avec beaucoup de molécules, ce qui veut dire que vous pouvez transférer de la chaleur plus rapidement et plus efficacement » explique Ben Cutler, chef de ce projet chez Microsoft. Mais cette initiative suscite quelques critiques « La chaleur dégagée aura-t-elle un impact sur l’écosystème marin ? Ne vaudrait-il pas mieux la réutiliser ? » persifle un expert. Des remarques qui ne vont pas décourager Microsoft qui n’a donc pas fini de faire des vagues.

 

 

Lire l'article

 

Source : L'Express

 

 

 

 

 

FaLang translation system by Faboba