Feuille de route de Sopra Steria. Moment de vérité

La question n’est plus de tester ce que l’IA peut faire, ni même de concevoir de nouveaux assistants personnels, mais de définir précisément ce que l’IA doit produire, dans quelles conditions et avec quels résultats attendus. Fin de la « GenAI spectacle »

L’IA est entrée dans une phase décisive. Le temps de la curiosité, des démonstrations isolées et des preuves de concept fragmentées est désormais révolu. La GenAI a quitté le laboratoire pour s’imposer à l’agenda des instances dirigeantes, déplaçant la question centrale de « Que peut faire l’IA ? » vers « Comment en faire une source de valeur stable, sécurisée et reproductible ? ».

Atteindre l’échelle industrielle constitue désormais la véritable frontière, estiment les auteurs du CIO Compass « Fin de la GenAI spectacle », Fabrice Asvazadourian, CEO, Sopra Steria Next, et Mohammed Sijelmassi, CTO, Sopra Steria Next. 

Les obstacles sont toutefois avant tout structurels, et non simplement techniques. Les organisations se heurtent à un « coût cognitif », lié à la volatilité de la consommation de tokens et de l’usage des GPU, qui fragilise la prévisibilité des modèles opérationnels. À cela s’ajoutent des architectures fragmentées et le piège des données non structurées, qui freinent fréquemment les déploiements, tandis que la montée du Shadow AI introduit des risques non maîtrisés en matière d’exposition des données et de propriété intellectuelle.

Le défi du passage à l’échelle

Dans ce contexte, se concentrer sur des expérimentations isolées de type « plug-and-prompt » n’est plus tenable. Les organisations doivent évoluer vers des modèles opératoires « AI-ready », fondés sur la responsabilité et la souveraineté, et reposant sur une distinction claire entre ce qui doit être acheté (IA intégrée aux solutions SaaS) et ce qui doit être construit pour créer de véritables avantages compétitifs différenciants.

Premier défi, sortir du dilemme « Buy vs Build », relèvent Fabrice Asvazadourian et Mohammed Sijelmassi. Un arbitrage s’impose : IA intégrée aux solutions SaaS (création de valeur rapide mais contrôle limité) ou IA développée sur mesure (forte différenciation mais complexité accrue de maintenance). Le bon choix dépend des exigences de souveraineté, du niveau de différenciation concurrentielle recherché, de l’avantage data et de l’économie à long terme.

Deuxième défi, le verrouillage fournisseur et la dépendance à un modèle unique. « S’appuyer sur un seul fournisseur de LLM expose l’entreprise à des hausses de prix, à une perte de compétitivité, à l’instabilité des API ainsi qu’à des contraintes géopolitiques ou réglementaires. » Des architectures agnostiques vis-à-vis des modèles sont indispensables pour préserver la flexibilité et le pouvoir de négociation

Des garde-fous, impérativement

Les auteurs insistent sur le risque d’une gouvernance fragile et des résultats non traçables. En l’absence d’un écosystème maîtrisé, les systèmes d’IA peuvent produire des résultats incohérents ou insuffisamment fondés ; ne pas être audités ou supervisés de manière fiable ; accumuler des risques dans des domaines sensibles (juridique, RH, finance, cybersécurité). Sans garde-fous structurés, la confiance s’érode rapidement.

La volatilité des coûts et l’absence d’AI FinOps constitue un autre défi. « Sans gouvernance des coûts, l’usage de l’inférence, la dérive de consommation des tokens et les pics d’utilisation des GPU peuvent rapidement faire déraper les budgets. Les coûts varient fortement d’un mois à l’autre et dépendent étroitement des choix de modèles et d’architecture… »

Transformer… à grande échelle

Cinquième défi : l’IA fantôme et les nouvelles menaces de sécurité. L’usage non supervisé de LLM publics expose l’organisation à des risques de fuite de données, d’injection de prompts, d’empoisonnement des données, de vol de modèles et de contournement des contrôles de sécurité et de conformité. « Le passage à l’échelle de l’IA en toute sécurité exige des dispositifs de protection adaptés au raisonnement des machines, et non plus uniquement aux menaces IT traditionnelles », insistent les auteurs.

Si le passage à l’échelle est le principal défi, il n’est pas le seul. La véritable promesse de l’IA n’est pas l’automatisation, mais l’augmentation : élever les capacités humaines et redéfinir les seuils de performance, concluent Fabrice Asvazadourian, et Mohammed Sijelmassi. « En combinant la créativité des modèles génératifs avec la rigueur d’architectures composites et agnostiques, les organisations peuvent enfin transformer l’intention stratégique en réalité opérationnelle durable, en toute sécurité et… à grande échelle. »