Connecting Networks

Articles taggés avec : centre de données

Concevoir aujourd’hui des DC pour demain

Le mercredi, 27 février 2019. Posté dans News GrenoblIX News LyonIX News Rezopole

Concevoir aujourd’hui des DC pour demain

Comment parvenir à construire des infrastructures informatiques de manière durable et pérenne pour les 20 prochaines années ? Quels sont les éléments importants à prendre en compte lors de la phase de conception ?

 

Même si en apparence construire des centres de données peut paraître assez facile, il s’agit d’un secteur évoluant rapidement. En effet, aujourd’hui les salles se densifient, les serveurs consomment de plus en plus d’énergie et sont plus lourds. Des concepts de modularité bousculent le marché tous les mois, les gammes évoluent vite pour répondre davantage aux besoins des utilisateurs…

 

C’est pourquoi l’adaptabilité et la modularité doivent faire partie des solutions à ces problématiques dès les phases de conception. Comme par exemples, choisir des solutions de refroidissement et électriques modulables, augmenter la puissance et monter en charge lors des maintenances, designer les gros équipements en les surdimensionnant.

Il peut également être très utile de mettre en place de nouvelles méthodes de travail type Agile. Il est donc primordial d’être flexible et de s’adapter à ces changements qui peuvent affecter le projet durablement.

La modularité est aussi un point indispensable lors de la conception notamment si l’on choisit un lieu atypique pour implanter son centre de données. Cependant, des aspects légaux ou réglementaires peuvent aller à l’encontre de cette modularité. Il faut donc aborder au plus tôt ces problématiques qui ont souvent des délais incompressibles…

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

Développement des DC français

Le mercredi, 20 février 2019. Posté dans News GrenoblIX News LyonIX News Rezopole

Développement des DC français

Interviewé par LeMagIT, Olivier Micheli constate que les centres de données français séduisent enfin les acteurs internationaux du Cloud et qu’ils se développent géographiquement afin de réduire les latences.

 

Exerçant à la fois les fonctions de PDG de Data4 Group et de Président de l’association France Datacenter, Olivier Micheli estime à 200 le nombre de grands datacenters en France pouvant atteindre jusqu’à 10 000 m². La capitale réunissant le plus grand nombre car Paris est un nœud d’interconnexion européen.

On dénombre entre 3000 et 5000 salles informatiques privées de taille et puissance variables à travers le pays.

Au-delà du souhait des entreprises d’avoir la main sur leurs équipements, l’importance d’une latence toujours plus faible pèse de plus en plus dans les activités économiques locales et le développement des villes intelligentes.

Selon Olivier Micheli, le marché tend vers des centres de données dont la taille est proportionnelle à celle de l’activité économique à proximité.

 

Après une période creuse entre 2012 et 2015, le marché des datacenters français a rattrapé son retard. La France se place aujourd’hui en quatrième position en Europe ex-aequo avec l’Irlande. Plusieurs raisons à cela : l’opportunité pour les entreprises internationales de s’adresser à 67 millions d’individus depuis des ressources IT hébergées localement, l’importance géostratégique de Marseille et aussi les efforts du gouvernement pour créer des conditions favorables au développement de ces datacenters.

Ce qui permet enfin à l’Hexagone de s’aligner sur le Royaume-Uni, l’Allemagne ou encore les Pays-Bas.

 

Les clients de ces centres de données sont à 70 % des acteurs du Cloud public tels que Amazon, AWS mais également des éditeurs comme Salesforce. Les entreprises utilisatrices souhaitent quant à elles beaucoup d’accompagnement.

 

Le premier enjeu des datacenters est, selon Olivier Micheli, la connectivité. En effet, les entreprises souhaitent désormais bénéficier d’une salle informatique délocalisée afin de redistribuer ces données vers les usagers et les acteurs d’Internet.

Le second enjeu est celui du bâtiment intelligent et d’atteindre 100 % d’énergie renouvelable en utilisant par exemple le Free Cooling.

 

 

 

 Lire l'article

 

Source : LeMagIT

 

 

 

 

Data centers : coup de chaud sur nos données

Le jeudi, 06 septembre 2018. Posté dans News GrenoblIX News LyonIX News Rezopole

Data centers : coup de chaud sur nos données

Situé au sud de Paris, le campus de Data4 héberge les données de grandes entreprises du CAC 40. Parmi les neuf data centers répartis sur 111 hectares, se trouve le DC05. Ce centre de données de nouvelle génération, en service depuis fin 2017, dispose d’une façade unique, bardée de blocs capables d’aspirer l’oxygène extérieur. « Une fois filtré, cet air à température ambiante sert à refroidir le cœur du bâtiment, ou la température de certains composants peut facilement monter à 60°C. Ce système de free cooling remplace les réserves d’eau glacées et les grosses armoires à froid mécanique utilisées dans les data centers plus anciens » explique Jérôme Totel, directeur du site.

 

Le free cooling est à la mode et tend à s’imposer, essentiellement pour des raisons économiques. En effet, les data centers consomment près de 10 % de l’électricité mondiale. « Et près de la moitié de cette énergie sert à faire fonctionner les systèmes de refroidissement » explique Guilhem Cottet délégué général de France Datacenter. Aujourd’hui, la fourchette de température de l’air envoyé dans les salles de serveurs est bien plus élevée qu’il y a dix ans. Effectivement, les directives internationales préconisent entre 20 et 27°C.

 

Cela n’empêche que « refroidir un data center est une véritable science » résume Jean-Michel Rodriguez, directeur technique chez IBM. Les températures et l’humidité ambiantes des pays d’Europe du Nord assurent naturellement un bon refroidissement tout au long de l’année, ce qui permet d’utiliser plus facilement le free cooling. Ce n’est cependant pas le cas avec un climat plus méditerranéen puisque ce système ne peut fonctionner qu’une partie de l’année. Les hébergeurs comptent donc souvent sur des installations plus modestes comme une simple climatisation couplée à des « allées froides ». « Chaque année compte son lot de nouveautés. On est dans l’optimisation permanente » confirme François Salomon, spécialiste du free cooling chez Schneider.

 

C’est par exemple le cas de Facebook qui a révélé en juin dernier un dispositif associant le free cooling et l’eau ou encore Lenovo qui mise lui sur le liquid cooling. 2CRSI, une entreprise strasbourgeoise, propose quant à elle un système de refroidissement mutualisé. Beaucoup de chercheurs travaillent actuellement sur des algorithmes capables de baisser la consommation des serveurs. Même si l’indicateur d’efficacité énergétique des data centers s’est nettement amélioré ces dernières années, certains experts tirent la sonnette d’alarme. « Les besoins en calcul et en énergie vont augmenter de manière exponentielle. Pour développer l’intelligence artificielle, optimiser le refroidissement ne suffira pas. Si bien qu’il faudra repenser la conception de nos centre de données » avertit Pierre Perrot de CryoConcept.

 

Un constat qui conduit les ingénieurs a développé des technologies diamétralement différentes comme l’immersion. Asperitas immerge désormais ses serveurs dans de l’huile. « C’est un liquide non conducteur et non corrosif qui absorbe jusqu’à 1 500 fois plus de chaleur que l’air » précise Pierre Batsch, chargé du développement de la société en France. Ainsi il n’y a plus de besoin de climatisations, de faux plafonds, d’allées froides, etc. Alors qu’Alibaba a déjà annoncé un projet similaire pour une partie de ses serveurs, d’autres acteurs comme les usines de « minage de cryptomonnaies » ou du monde la finance se montrent également intéressés par cette solution.

 

Microsoft a décidé lui de plonger une partie de ses infrastructures dans l’océan. « L’eau est 800 fois plus dense que l’air. Lorsque vous la touchez, vous êtes en contact avec beaucoup de molécules, ce qui veut dire que vous pouvez transférer de la chaleur plus rapidement et plus efficacement » explique Ben Cutler, chef de ce projet chez Microsoft. Mais cette initiative suscite quelques critiques « La chaleur dégagée aura-t-elle un impact sur l’écosystème marin ? Ne vaudrait-il pas mieux la réutiliser ? » persifle un expert. Des remarques qui ne vont pas décourager Microsoft qui n’a donc pas fini de faire des vagues.

 

 

Lire l'article

 

Source : L'Express

 

 

 

 

 

FaLang translation system by Faboba