" />
Slogan du site

Nous n’avons aucune préférence pour les brèves dites "politiques" qui ne s’opposent aux brèves "sociales" que pour les chantres de l’avant-garde. Nous reprenons ici ces deux catégories pour être clairs, sans les partager pour autant : la guerre sociale n’a besoin ni de sigles ni de communiqués pour exister quotidiennement et n’attend pas les projecteurs médiatiques. Les secondes demandent cependant un dépouillement régulier des journaux, notamment locaux, ou bien des témoignages directs. Elles sont donc moins nombreuses.

Une dernière précision : les journaux étant la voix des flics, les notices sourcées d’eux sont à prendre avec précaution.

NB : sauf mention contraire, les traductions et synthèses seront anonymes, appartenant donc à tous. Si nous mettons un lien, ce sera donc uniquement vers la langue d’origine du texte.

Les fragilités d’internet et l’inattendu
Article mis en ligne le 4 février 2015
Imprimer

Et si, comme la banquise, Internet se mettait à fondre ?

Slate.fr, 29.01.2015 à 13 h 00

Internet est fait de câbles, de métal et de tuyaux et il est aussi vulnérable face aux éléments déchaînés qu’une centrale électrique ou un réseau téléphonique.

Des milliers d’habitants de la ville de Perth, en Australie, ont fait une terrible découverte le 5 janvier : Internet avait littéralement fondu. Le deuxième fournisseur d’accès Internet du pays, iiNet venait de succomber aux fortes chaleurs (45°C à l’ombre !) –le troisième jour le plus chaud enregistré pour un jour de janvier à Perth.

La technologie a besoin d’eau

Selon un communiqué de la compagnie, l’interruption de service de son centre de données de Perth a été consécutive à une panne des deux systèmes de refroidissement (le principal et celui de secours). La chaleur a naturellement exacerbé le problème, ce qui a contraint iiNet à éteindre certains de ses serveurs par mesure de sécurité.

La montée des températures et les climats extrêmes en général, provoqués par le réchauffement vont avoir de plus en plus d’impact sur les infrastructures. Un reportage diffusé en 2013 dans l’émission Science Friday, sur NPR, mentionnait entre autres problèmes la déformation des rails de chemins de fer, la fonte de l’asphalte et l’affaissement des lignes à haute tension. Mais il serait bon de ne pas oublier Internet, qui constitue aujourd’hui la moelle épinière de nos vies personnelles et professionnelles.

Nous ne le réalisons pas vraiment, mais les climats extrêmes, la rareté et la cherté croissante de l’eau ainsi que la hausse des températures pourraient avoir des répercussions désastreuses pour les compagnies du secteur des technologies.

L’eau est importante pour le refroidissement des machines dans les secteurs de l’information et de la communication, à en croire un rapport de Business for Social Responsibility, et la hausse des températures va provoquer un nombre croissant de pannes. Loin d’être une machinerie éthérée, comme le « cloud » semble le suggérer, Internet est fait de câbles, de métal et de tuyaux et il est aussi vulnérable face aux éléments déchaînés qu’une centrale électrique ou un réseau téléphonique.

Les climats extrêmes ont déjà provoqué de nombreuses pertes de réseaux aux Etats-Unis. En 2012, une tempête avait ainsi fait tomber l’Elastic Compute Cloud d’Amazon dans le nord de la Virginie, entraînant également la chute de Netflix, Instagram et Pinterest. En 2012, Verizon a également appris une rude leçon quand l’ouragan Sandy a grandement endommagé ses infrastructures situées à Manhattan. Des kilomètres de câbles furent engloutis par les eaux de la tempête et le local technique de Broad Street avait subi ce que le directeur exécutif de Verizon, Christopher D. Lenvendos, avait décrit comme une « panne catastrophique ».

Comment éviter la surchauffe ?

La vulnérabilité d’Internet est bien connue et elle n’est pas due qu’au climat. Il suffit de se souvenir des inquiétudes de Google à propos de la menace que feraient peser les requins sur ses câbles optiques,la Géorgienne qui provoqua la coupure complète d’Internet en Arménie alors qu’elle creusait le sol pour récupérer du cuivre, ou les trois hommes arrêtés en Egypte en 2013 alors qu’ils tentaient (dit-on) de couper les câbles sous-marins qui procurent à l’Egypte et à l’Europe la majorité de sa connexion Internet.

Mais les hautes températures sont particulièrement problématiques (et plus probables que les attaques de requins) parce que la gestion d’un centre de données consiste pour l’essentiel à éviter la surchauffe des serveurs. Une hausse de températures (due à une actualisation ratée de logiciel et pas au climat) avait provoqué la mise hors service d’Outlook et d’Hotmail pendant près de 16 heures en 2013. Comme Slate le faisait alors remarquer, les centres de données dépensent souvent autant d’énergie à refroidir leurs serveurs qu’à les faire fonctionner.

Devons-nous nous craindre que la montée des températures ne provoque des coupures d’Internet aux Etats-Unis ? Pas si nos fournisseurs d’accès sont prêts. Cet incident démontre que ce centre de données n’était pas conçu pour supporter des températures d’une telle intensité, comme me l’a précisé Jonathan Koomey, chercheur au Steyer-Taylor Center for Energy Policy and Finance à l’université de Stanford : « Il a des centres de données au Moyen-Orient et ils fonctionnent. Il est donc parfaitement possible de construire des centres capables de supporter de fortes températures. Il faut construire des serveurs qui résistent mieux à la chaleur ou, par exemple, peindre le toit du centre en blanc. Il va falloir que l’on s’y mette, parce que si nous ne le faisons pas, nous allons le payer au prix fort . »

Le risque de voir Internet fondre n’est tout de même pas très élevé, car l’infrastructure américaine d’Internet est gérée par des groupes privées et est assez hétérogène, comme me l’a raconté Andrew Blum, auteur de Tubes : A Journey to the Center of the Internet. C’est le rôle de chacun de ces opérateurs et des sous-traitants de s’assurer que les systèmes sont assez robustes pour supporter les pannes ou les hausses de températures. Dans les principaux centres du réseau américain –comme dans le Lower Manhattan, la Virginie ou la Silicon Valley– le sujet est pris très au sérieux, dit Blum : «  Les grands réseaux nationaux n’ont pas hésité à dédoubler les tuyaux et les centres... Il existe de très nombreux points d’interconnexion . Si l’un d’eux tombe en panne, il est possible de le contourner. »

Mais le réseau est très très loin d’être homogène et il y a à boire et à manger. A titre d’exemple, Andrew Blum raconte l’histoire d’un site à Milwaukee qu’il a visité il y a cinq ans de cela. A l’époque, ce centre constituait une des principales sources de connexion Internet de la ville et était situé dans le sous-sol d’un immeuble de bureaux. Si Milwaukee devait connaître des températures de 45°C (ce qui est tout de même moins vraisemblable dans le Wisconsin qu’à Perth) il est peu probable que le système de refroidissement du centre sera capable d’y faire face.

« Voilà comment ça se passe dans les villes moyennes… Ce centre n’est pas situé dans un bâtiment spécifiquement dédié et personne ne sait donc vraiment qui est ici responsable de l’éclairage ou de la température. »

Pour la plupart des utilisateurs américains d’Internet, c’est Comcast, Time Warner Cable ou Verizon qui a posé les tuyaux. Si ces compagnies ne prennent pas ces risques au sérieux, ne construisent pas des centres résistants et ne dédoublent pas leurs réseaux de manière adéquate, nous pourrions avoir quelques problèmes. La bonne nouvelle, comme me l’a dit Betsy Page Sigman, professeure à la Georgetown University’s McDonough School of Business, c’est que ces fournisseurs sont mieux préparés à des problèmes climatiques que ne l’était iiNet.

« Des innovations en provenance de compagnies comme Facebook ou Google vont donner naissance à des serveurs plus efficaces et à des dédoublements de réseaux qui finiront par être adoptés par les géants des télécoms. »

Prendre en compte l’inattendu

Pourtant, malgré la fusion probable de Comcast et de Time Warner Cable dans un futur proche, la consolidation des fournisseurs d’Internet aux Etats-Unis n’est peut-être pas une très bonne nouvelle pour la santé du réseau. « J’aurais tendance à dire que la compétition force tous les acteurs d’un secteur à rester sur leurs gardes, alors quand un monopole se dessine, ça peut être inquiétant », a continué Betsy Page Sigman. Andrew Blum a une vision similaire :

« Personne n’a envie en d’en parler –mais aux Etats-Unis, Internet est à peu de choses près un duopole… Aucun des deux acteurs n’a une infrastructure plus robuste que l’autre. Alors croisez les doigts et priez pour que Comcast et Verizon soient préparés au changement de climat. »

Car en effet, la taille même de nos opérateurs signifie qu’un problème rencontré dans un seul centre de données pourrait avoir des effets énormes sur tout le réseau. En août 2014, Time Warner Cable a subi une panne massive après une erreur de maintenance qui a provoqué un black-out pour des milliers d’utilisateurs aux Etats-Unis. A la lumière de sa probable fusion avec Comcast –un accord qui verrait la naissance du plus grand fournisseur d’accès Internet du pays– il est bon se de demander si cette agrégation est le meilleur moyen d’augmenter sa résistance. Comme Time l’avait pointé du doigt en 2014, si un incident similaire s’était produit après l’unification des infrastructures des deux réseaux, des millions de clients pourraient être affectés par une panne de la nouvelle super-compagnie.

Nos fournisseurs d’accès Internet font-ils les efforts nécessaires pour que leur réseau résiste aux changements climatiques ? Comcast s’est officiellement refusé à tout commentaire sur le sujet et Verizon n’a pas répondu à ma demande d’entretien, mais Time Warner Cable m’a répondu ceci : « Chez Time Warner Cable, nous surveillons de près le réseau et veillons à nos capacités et aux redoublements de réseaux pour faire face à toute situation qui pourrait se produire en cas de changement climatique extrême. La planification est permanente ainsi que la maintenance, ce qui nous permet de nous assurer que nos systèmes fonctionnent au maximum de leurs capacités. »

Les nouveaux venus du marché, comme Google Fiber, qui tente d’étendre son réseau, ont encore plus de raisons de s’assurer que leur réseau est dans le meilleur état possible.

Au final, le caractère physique d’Internet signifie qu’il ne sera jamais totalement fiable. Notre vie en ligne repose sur des systèmes de climatisation, des interrupteurs et des systèmes d’alimentation et il est très difficile de se préparer à quelque chose qui ne s’est jamais produit auparavant.

Mais souvenez-vous de ces histoires de requins soudains attirés par les fibres optiques de Google ou de la mémé géorgienne avec sa pelle : les hausses de températures record ne sont qu’un problème parmi tant d’autres. Températures extrêmes, inondations et autres phénomènes climatiques provoqués par le réchauffement risquent bien de montrer aux responsables de notre infrastructure Internet que l’inattendu est finalement la seule chose certaine.

Et en France ?

En France aussi, les serveurs ont parfois trop chaud et la climatisation tombe en panne.

C’est ce qui est arrivé à un datacenter situé à Nanterre en 2011, provoquant un ralentissement et l’arrêt de plusieurs sites. ZDNet racontait à l’époque que la température était passée des 16°C réglementaires à plus de 55°C, « ce qui a provoqué une panne en cascade des serveurs et donc des sites Web associés malgré les ventilateurs (sic) installés d’urgence ».

Le 9 mars 2014, Paris a battu un record de chaleur. Et un datacenter, parmi les cinq premiers de France, a eu un « gros coup de chaud », la climatisation tombant en panne quelques heures.

Par ailleurs, quand des sites américains sont touchés, les internautes français en pâtissent également. On l’a vu au moment de l’ouragan Sandy, les sites du Huffington Post français, britannique, etc. n’étant par exemple plus accessibles.


Plusieurs sites internet français paralysés par une panne d’un datacenter de Level3

Lemagit, 22 nov. 2011

Une panne de climatisation intervenue dans le datacenter de l’opérateur américain Level3, installé Nanterre, a provoqué ce mardi un ralentissement ainsi qu’un arrêt de plusieurs sites Internet français, ont indiqué nos confrères de l’AFP.

La cause de l’incident est due à une rupture de canalisation d’eau servant à alimenter le circuit de refroidissement des salles de serveurs, a confirmé un responsable de Level3, indiquant, toujours à nos confrères, que la température avait dépassé les 50 degrés dans le centre, provoquant ainsi des pannes de serveurs.

"Nous avons réparé la fuite et rempli à nouveau le système avec de l’eau, et le niveau suffisant de pression nous a permis de faire redémarrer la moitié du système de climatisation", a expliqué ce même responsable précisant alors que la température avait commencé à baisser à la mi-journée.

Level3 qui s’est refusé à donner l’identité des sites impactés, indique héberger des sites ministériels, sans autre précision.


Gros coup de chaud dans un datacenter parisien de Telehouse

ZDNet.fr | Lundi 10 Mars 2014

Technologie : Important noeud du Web français, ce centre de données a connu une importante panne de climatisation ce dimanche. La situation est revenue à la normale.

Le retour de la chaleur ce week-end à Paris a-t-il eu raison du datacenter Telehouse 2 à Paris ? Blague à part, cet important noeud du Web français a subi une panne de la climatisation pendant plusieurs heures.

Conséquence directe, de nombreux serveurs ont été coupés, entraînant des dysfonctionnements dans certains sites Web. Reste que les équipes de Telehouse ont vite été mobilisées : une heure après la premier tweet annonçant la panne, le groupe annonçait que le système avait été rétabli.

"On n’est pas passés loin" d’une congestion majeure a toutefois commenté lundi matin Mathieu Weill, le patron de l’Afnic, à l’occasion de l’ouverture du Forum de la gouvernance d’Internet à Paris.

Du côté de Telehouse, on attend toujours des explications quant à cette panne.

La climatisation reste le point faible des datacenters. En décembre 2011, la rupture du système de refroidissement de Level3 en France a provoqué une panne en cascade des serveurs et donc des sites Web associés. Ce datacenter fait partie des cinq premiers de l’Hexagone.


Google investit 600 millions d’euros dans un datacenter aux Pays-Bas

Le Monde de l’informatique, 23 Septembre 2014

Disposant déjà de trois datacenters en Europe, Google annonce investir 600 millions d’euros sur les quatre prochaines années pour en construire un dans la ville de Eemshaven aux Pays-Bas. Sa mise en service est prévue en 2016.

Google vient d’annoncer la création d’un quatrième datacenter en Europe qui viendra compléter les trois déjà existants situés en Irlande (Dublin), en Finlande (Hamina) et en Belgique (Saint-Ghislain). L’investissement s’élève à 600 millions d’euros sur 4 ans, sachant que cette nouvelle construction arrive, d’après Google, pour faire face à la forte croissance de la demande pour ses services dont Gmail et YouTube.

« Nous nous attendons à un début de mise en service dans la première moitié de 2016 et à un fonctionnement 100% opérationnel d’ici la fin 2017 », explique Google dans un communiqué. Ce datacenter va permettre à terme la création de plus de 150 emplois directs à temps plein mais également indirects. Parmi les profils recherchés : techniciens informatiques, ingénieurs en électricité et en mécanique, professionnels de la restauration, installateurs, personnel de sécurité...

Le nouveau datacenter de Google bénéficiera des dernières avancées en termes de technologies électriques et de refroidissement. Il s’appuiera en particulier sur le free-cooling en prenant avantage des ressources naturelles (air et eau) pour maintenir au frais les serveurs. Selon Google, ses datacenters utilisent 50% d’énergie en moins que des modèles traditionnels.