Place au fog computing ! L’IoT va impacter la conception et l’architecture des data centers… donc la consommation énergétique.

«L’accélération de l’IoT générera des quantités de données considérables qui devront être traitées et analysées en temps réel, commente Fabrizio Biscotti, Research Director, GartnerCet accroissement des volumes va développer proportionnellement la charge de travail des datacenters, non sans induire de nouveaux challenges pour les fournisseurs tant en termes de sécurité et de capacités de stockage que d’analyse… mais aussi d’énergie !»

Combien d’objets connectés ? Selon certaines estimations, le seuil des 50 milliards d’unités sera franchi en 2020. Mais ce n’est là qu’une indication. A ce nombre, il convient d’ajouter le volume de données qu’un objet peut générer à lui tout seul. A eux seuls, en 30 minutes de vol, les équipements d’un avion peuvent produire 10 TB de données sur les performances !

Aussi, Gartner conseille vivement aux gestionnaires de datacenters de tenir compte de ces perspectives pour le dimensionnement de leurs capacités futures. De fait, l’IoT introduit de nombreux nouveaux paramètres. D’abord, une sécurité plus complexe partant qu’ils proviennent d’une myriade de dispositifs connectés. Ensuite, le stockage va nécessiter de nouvelles capacités. Le réseau, enfin, va devoir faire transiter d’énormes quantités de petits messages vers le data center et sur-solliciter la bande passante entrante. Bref, l’IoT va impacter la conception et l’architecture des data centers.

L’IoT se caractérise également par des données largement distribuées et difficiles à transférer vers un site de traitement centralisé. Concrètement, les entreprises seront probablement amenées à les agréger localement, là où elles peuvent être prétraitées, avant de les envoyer vers un site centralisé pour procéder à des traitements additionnels ainsi qu’à leur stockage.

On peut ainsi prendre l’exemple d’un véhicule dont tous les messages de confirmation sont traités en local, alors que les messages d’erreur sont envoyés vers un centre télématique. De même, sur un navire, la surveillance de la position des conteneurs peut être assurée localement avec transmission de messages seulement dans le cas où les conteneurs ont bougé. Cela permet à la fois d’économiser la bande passante du réseau et d’éviter la saturation des data centers.

On l’a compris, envoyer toutes les informations d’équipements IoT dans un cloud et renvoyer une réponse du cloud vers les objets connectés peut devenir rapidement incompatible en termes de délai de réponse et d’utilisation de bande passante.

C’est ici que le cloud computing cède la place au fog computing. Cisco définit le fog computing comme un paradigme qui étend le cloud computing et ses services aux équipements d’extrémité d’un réseau. De la même manière que le cloud, le fog fournit des services de données, de stockage, de traitement et d’applications à l’utilisateur final. Les caractéristiques principales du fog sont sa proximité avec l’utilisateur, sa densité de distribution géographique et le support de la mobilité. Les services sont hébergés dans les équipements réseaux d’extrémité (network edge) ou dans les objets connectés eux-mêmes comme des «set top boxes» et des points d’accès. En agissant ainsi, le fog computing réduit la latence et améliore la qualité de service QoS. De ce fait, l’expérience utilisateur est optimisée.

 

L’IoT pousse les data centers vers le nord !

Quel lien y a-t-il entre l’explosion des objets connectés et les choix d’implantation nordique des data centers ? La consommation électrique ! 90% de l’ensemble des données produites au monde ont été générées au cours des deux dernières années. La cadence ne risque pas de ralentir avec l’essor des objets connectés…

L’IoT va faire monter en flèche le volume de données entrantes sur le réseau du data center. Il va donc falloir gérer ce flux et un nombre illimité de connexions associées à chaque utilisateur de façon homogène, en assurant des capacités de stockage et de traitement correctement dimensionnées et en temps réel.

Parmi les solutions, Gartner conseille de traiter les données en deux étapes : une agrégation des données dans de multiples mini data centers distribués où s’effectue un traitement initial, puis le transfert des données les plus pertinentes vers une installation centrale pour un traitement approfondi.

 

Summary
COP21 - Du cloud computing au fog computing
Article Name
COP21 - Du cloud computing au fog computing