SAS a posé la question de la confiance à IDC. Exit les IA traditionnelles !
Les organisations qui développent une IA fiable ont 60 % de chances supplémentaires de doubler le retour sur investissement de leurs projets d’IA, soulignant le coût élevé du non-respect des pratiques responsables.
Seulement 40 % des entreprises investissent pour rendre les systèmes d’IA fiables grâce à la gouvernance, à l’explicabilité et aux garanties éthiques, alors même que les organisations qui privilégient une IA fiable ont 60 % de chances supplémentaires de doubler le retour sur investissement de leurs projets d’IA.
Paradoxalement, parmi les entreprises déclarant investir le moins dans des systèmes d’IA fiables, la GenAI -par exemple, ChatGPT- est considérée comme 200 % plus fiable que l’IA traditionnelle, comme l’apprentissage automatique, bien que cette dernière soit la forme d’IA la plus établie, la plus fiable et la plus explicable.
Deux questions majeures
« Notre étude révèle une contradiction : les formes d’IA offrant une interactivité proche de l’humain et une familiarité sociale semblent susciter la plus grande confiance, indépendamment de leur fiabilité ou de leur précision réelles », commente Kathy Lange, Research Director for IDC’s AI and Automation practice. Ceci nous amène à deux questions majeures. « Si la GenAI est digne de confiance, est-elle pour autant toujours digne de confiance ? Les dirigeants appliquent-ils les garde-fous et les pratiques de gouvernance de l’IA nécessaires à cette technologie émergente ? »
L’étude s’appuie sur une enquête mondiale menée auprès de 2 375 personnes en Amérique du Nord, en Amérique latine, en Europe, au Moyen-Orient et en Afrique, ainsi qu’en Asie-Pacifique. Les participants représentaient un mélange équilibré de professionnels de l’IT et de responsables métier, offrant des perspectives à la fois technologiques et métiers.
Les technologies d’IA émergentes suscitent la plus grande confiance
Dans l’ensemble, l’étude révèle que les déploiements d’IA les plus fiables sont ceux des technologies émergentes, comme la GenAI et l’Agentic AI, par rapport aux formes d’IA plus établies. Près de la moitié des personnes interrogées (48 %) ont déclaré faire entièrement confiance à la GenAI, tandis qu’un tiers a déclaré la même chose pour l’Agentic AI (33 %). La forme d’IA la moins fiable est l’IA traditionnelle : moins d’une personne sur cinq (18 %) a déclaré une confiance totale.
Même si elles ont déclaré une grande confiance à la GenAI et à l’Agentic AI, les personnes interrogées ont exprimé des inquiétudes, notamment en matière de confidentialité des données (62 %), de transparence et d’explicabilité (57 %) et d’utilisation éthique (56 %).
L’absence de garde-fous en matière d’IA affaiblit son impact… et son retour sur investissement
L’étude a montré une augmentation rapide de l’utilisation de l’IA, en particulier de la GenAI, qui a rapidement éclipsé l’IA traditionnelle en termes de visibilité et d’application (81 % contre 66 %). Cela a engendré de nouveaux risques et préoccupations éthiques.
« L’étude a également révélé une faible priorité accordée à la mise en œuvre de mesures d’IA fiables lors de la mise en œuvre des projets d’IA », s’inquiète Kathy Lange. Parmi les trois principales priorités organisationnelles des répondants, seuls 2 % ont choisi l’élaboration d’un cadre de gouvernance de l’IA. Et moins de 10 % ont déclaré élaborer une politique d’IA responsable. « C’est dommage, regrette encore Kathy Lange. Négliger les mesures d’IA fiables pourrait empêcher ces organisations de réaliser pleinement leurs investissements en IA à long terme. »