Moins de 0,000001% des données stockées sur les disques durs de europe-west1-b, le nom de code du data center de Google à Saint Ghislain (Mons) associé aux instances Compute Enginer, perdues. Google essaie de minimiser l’incident du 13 août dernier qui a impacté les disques durs.

C’est peu. N’empêche, si le site stockait 1 Po de données, cela signifie moins de 10 Mo évaporés. Assez pour tenir l’image d’absolue fiabilité du géant de Mountain View. D’autant que la perte est liée à la foudre, un phénomène pas si rare que cela.

Entre le 13 et le 17 août, environ 5% des disques durs du data center montois ont connu, au moins, une erreur d’entrée/sortie ou d’écriture. Les opérations de restauration ont permis de récupérer l’essentiel des données, sans toutefois atteindre les 100%. Google précise aujourd’hui que les disques SSD et les snapshots de disques ne sont pas concernés par l’incident.

Même si la firme de Mountain View assume «l’entière responsabilité» de la panne, c’est la gestion de l’incident qui pose problème. Quelques heures après la panne d’alimentation dont ont souffert ses baies de stockage, Google parlait ainsi seulement de performances dégradées. Le lendemain, le14 août, ses ingénieurs pensaient que «pas plus de 1%» des disques durs seraient touchés et ne mentionnaient pas l’éventualité de pertes de données. Deux jours plus tard, dans un message, Google estime même que l’incident est clos, en raison «du faible taux d’erreurs de lecture» sur les disques. Le 18 août, Google reconnaît, cette fois, la réalité de la perte définitive de certaines données…

 

LCL épingle la -faible- redondance de Google…

D’abord, le constat : les batteries n’ont apparemment pas alimenté les systèmes de sauvegarde des données, causant dès lors leur perte. Aussi, dans la mesure où, pour ce service, aucune réplication ne se fait dans un autre centre de données Google, la perte de ces données est probablement définitive.

Des prestataires comme LCL ou Colt construisent leurs centres de données en suivant les standards Tier III de l’Uptime Institute. «Pas Google, assure Laurens van Reijen, Managing Director, LCL. Il est connu que l’entreprise a de grands data centers moins redondants, inférieurs au niveau Tier I -donc bien moins sécurisés. En soi, ce ne serait pas un problème s’ils dupliquaient les données dans plusieurs centres de données. Mais c’est ce qu’ils ne font apparemment pas pour Google Compute Engine, la solution cloud commerciale destinée aux entreprises…»

La question est de savoir si c’est possible dans le cas de Google. Pour la duplication des données, les data centers ne doivent pas se trouver trop éloignés les uns des autres pour des raisons de latence -il se produit toujours un certain retard.

Les entreprises qui placent tout dans le cloud chez Google courent donc de sérieux risques si elles n’en sont pas conscientes; les questions de Business Continuity et de DRP (Disaster Recovery Plan) ne sont clairement pas réglées, s’emporte Laurens van Reijen. «Imaginez un incendie important dans le data center de Mons ou un autre incident : toutes les données sont perdues ! C’est incompréhensible. Au sein d’un centre de données professionnel Tier III, c’est entièrement réglé. Chez LCL par exemple, nous simulons chaque mois une coupure de courant afin de tester les systèmes de back-up. Les entreprises peuvent aussi opter pour des fournisseurs cloud belges, qui sauvegardent les données dans des centres de données mieux protégés…» Et de citer : Combell, Evonet, Nucleus, Proact et Realdolmen.

 

 

 

Summary
Google mal à l'aise après la perte de données du 13 août
Article Name
Google mal à l'aise après la perte de données du 13 août
Description
Google essaie de minimiser l'incident du 13 août dernier qui a impacté les disques durs.
Author