Hyperscaler, cloud souverain local et edge computing
Le cloud change de forme en s’écartant de plus en plus de son modèle historique basé sur les seuls hyperscalers. Et ce n’est pas sans conséquences, estime la banque d’investissement privée italienne Klecha & Co, spécialisée dans les secteurs de l’IT.
Hier, c’était le prix, le prix le plus bas. Plus aujourd’hui. « Le cloud passe de son économie d’échelle d’origine à une économie du contrôle », estime la banque d’investissement privée Klecha & Co. Désormais, pour de plus en plus d’entreprises, le risque de non-conformité, le coût des temps de réponse trop lents ou la valeur liée à la conservation de leurs données propres et sensibles déterminent désormais davantage le choix de l’infrastructure que la négociation du meilleur prix.
Pour Klecha & Co, le temps du cloud -solution universelle de la transformation digitale, avec ses hyperscalers centralisés proposant la flexibilité indispensable à la variation des besoins- est révolu.
Ce modèle a prospéré grâce à l’homogénéité, aux processeurs standardisés, au stockage standardisé et aux vastes centres de données gérés à l’échelle mondiale. Mais c’en est fini. L’IA remet en cause cette hypothèse. « L’IA épuise le modèle », peut-on lire. L’entraînement des modèles nécessite des clusters d’accélérateurs étroitement couplés ; l’inférence exige une distribution à faible latence.
Le cloud éclate vers un modèle distribué
L’abstraction historique du cloud, le « compute-as-a-service », devient désormais un goulot d’étranglement, car les performances dépendent de la topologie physique. 40% des investissements monstres des hyperscalers dans de nouveaux datacenters en 2025 ciblent d’ailleurs des configurations à forte densité en GPU. Qui plus est, les charges de travail d’IA sont sensibles à l’espace : le déplacement de données sur des centaines de kilomètres ajoute des millisecondes qui dégradent l’inférence en temps réel.
Par conséquent, les hyperscalers repensent leurs centres de données autour d’une spécialisation par zones, de superpods GPU pour l’entraînement, de nœuds proches de la périphérie pour l’inférence et de niveaux de stockage optimisés pour les pipelines de données à haut débit.
D’une manière générale, le cloud bascule ainsi vers un modèle distribué, régulé et « AI intensive », selon le rapport de Klecha & Co. Les entreprises s’orienteront, selon l’analyse, de plus en plus vers des infrastructures cloud à trois niveaux orchestrées dynamiquement par de l’IA, toujours avec les hyperscalers au coeur, mais avec des couches intermédiaires souveraines et enfin, des microgrids en edge. Une évolution déjà visible dans les politiques d’achat des organisations, selon Klecha & Co.
Stratégies multicloud et émergence de néoclouds
Face à ces transformations, les entreprises se tournent de plus en plus vers des stratégies multicloud et le marché voit l’émergence de néoclouds plus transparents que les hyperscalers.
83% des grandes entreprises dans le monde auraient ainsi déjà fait le choix du multicloud, a chiffré pour sa part Flexera, afin d’alléger leur dépendance à un hyperscaler, même au prix d’une gestion plus complexe des systèmes d’information…
On voit aussi que la mainmise de l’oligopole AWS, Azure et Google Cloud, peu enclin à la transparence ni à une tarification juste, fait émerger un marché de néoclouds. CoreWeave, Nscale, Lamba Labs, Nebius ou Crusoe proposent des offres aux configurations GPU optimisées (GPUaaS) et aux tarifs transparents.
Ces évolutions du cloud ne concernent pas seulement les CIO et CTO. L’éclatement des workloads entre de multiples fournisseurs augmente de façon exponentielle la surface d’attaque et le besoin de monitoring de la data. Les équipes de sécurité doivent faire face à des logs fragmentés, à des systèmes d’identité incohérents et à des normes de chiffrement différentes. Bref, une attention renforcée à la sécurité et à l’observabilité.


