Oui à l’AI. Si plus de transparence…

par | Oct 30, 2018 | Ai, Expérience | 0 commentaires

Oui aux modèles d’intelligence artificielle et de machine learning. Mais comment s’assurer de leur fiabilité ? Enquête chez Tableau Software.

L’intelligence artificielle nous promet d’accroître la compréhension humaine en automatisant la prise de décision. Pour Josh Parenteau, Director, Market Intelligence & Compete, Tableau Software, l’intelligence artificielle et le machine learning sont en train d’offrir une nouvelle perspective, «en aidant à dégager des informations exploitables qu’on n’avait encore jamais décelées». D’ici 2020, estime Gartner, «85 % des CIO mettront à l’essai des programmes d’AI via plusieurs approches de sourçage : achat, développement ou externalisation». Toutefois, une question reste ouverte : alors que les entreprises s’appuient de plus en plus sur les modèles de machine learning, comment peut-on s’assurer de leur fiabilité ? 

Pour la plupart, les applications de machine learning ne permettent pas -pour l’instant- de «regarder sous le capot» pour comprendre les algorithmes ou la logique ayant mené aux recommandations ou à la prise de décision. Aussi, quand elles envisagent une adoption à plus grande échelle, les entreprises qui pilotent des programmes d’AI émettent donc des doutes tout à fait légitimes… Comme l’explique Adrian Weller, chercheur senior dans le domaine à l’Université de Cambridge, «la transparence est généralement considérée comme essentielle au déploiement effectif de systèmes intelligents» tels que le machine learning. Et c’est normal : la transparence garantit notamment que les modèles fonctionnent comme prévu et permet aux utilisateurs de faire confiance aux prédictions du système au moment de prendre des décisions. 

Ce besoin de transparence a donné naissance à une pratique qui consiste à rendre les modèles de machine learning compréhensibles et transparents. Face à un résultat, les décisionnaires ont davantage de questions : pourquoi le modèle a-t-il donné cette réponse ? Quel est son niveau de certitude ? Qu’aurait-il répondu si les données avaient été différentes ? Au final, ils poseraient les mêmes questions à un expert humain avant de prendre une décision stratégique. Selon Richard Tibbetts, Principal Product Manager for AI, Tableau Software, «les décisionnaires ont raison de se méfier lorsque les réponses fournies par un système d’intelligence artificielle ou de machine learning sont inexplicables. L’analytique et l’intelligence artificielle ont pour objectif d’assister et non pas de remplacer entièrement l’expertise et la compréhension humaine».

Conclusion : si les entreprises ont fini par reconnaître la valeur de l’intelligence artificielle et du machine learning, ces systèmes, pour avoir un réel impact, doivent se montrer dignes de confiance; ils doivent pouvoir justifier leurs conclusions de façon intelligible, aussi simplement que possible et répondre de façon dynamique aux questions supplémentaires, afin d’aider les humains à mieux comprendre leurs données.

 

Summary
Oui à l'AI. Si plus de transparence...
Article Name
Oui à l'AI. Si plus de transparence...
Description
Oui aux modèles d'intelligence artificielle et de machine learning. Mais comment s'assurer de leur fiabilité ? Enquête chez Tableau Software.
Author
Publisher Name
Solutions Magazine
Publisher Logo