Artificial Intelligence

Artificial Intelligence, Deep Learning, Machine Learning

Les risques de l’IA de mieux en mieux cernés

Juil 31, 2023 | Ai | 0 commentaires

L’analyse de l’utilisation des outils d’IA générative dans les entreprises fait apparaître plus clairement les risques. GetApp avance ses conclusions et recommandations.

« Pour les entreprises, le risque de dépendre de l’IA générative serait de dévoiler un contenu formaté, sans supplément d’âme, explique Sabrina Khoulalène, Content Analyst, GetApp. Ainsi, un manque de personnalité, un défaut d’esprit critique et de profondeur sont autant de qualificatifs qui peuvent être attribués aux organisations qui se reposent uniquement sur cette technologie pour produire du contenu. Ces possibles critiques peuvent avoir des répercussions négatives sur l’image de marque. D’ailleurs, l’impact sur la réputation est l’un des risques auxquels s’exposent les entreprises qui utilisent l’intelligence artificielle générative -une menace reconnue par 23 % des répondants. »

Après l’engouement général autour de l’utilisation de ChatGPT, les questions sur les risques éthiques et la sécurité de l’emploi ont commencé à apparaître. Et si l’IA générative pouvait surpasser l’humain dans la réalisation de certaines tâches au travail, voire le remplacer ? Dans une étude inédite, GetApp, la plateforme de recherche et de comparaison de logiciels d’entreprise, s’est intéressée à l’utilisation des outils d’IA générative dans les entreprises.

Vie privée menacée  et  autres risques 

La plupart des employés sondés estiment que les principaux risques auxquels s’exposent les entreprises qui utilisent l’IA générative sont liés à la cybersécurité (40 %) et à la protection de la vie privée (38 %). Des problématiques qui posent également des contraintes déontologiques aux yeux du panel. Nombreux sont ceux à percevoir comme des préoccupations éthiques majeures les thématiques relatives à la vie privée et à la confidentialité des données (37 %) et le manque de transparence dans l’utilisation des données (32 %).

« Ces dangers et problèmes éthiques se doivent d’être pris en compte par les entreprises tant on ignore, à l’heure actuelle, comment les outils d’intelligence artificielle générative tels que ChatGPT utilisent, par la suite, les informations que l’on partage avec eux, estime Sabrina Khoulalène. Il est important de garder à l’esprit que ces systèmes s’appuient sur des données qu’ils peuvent puiser non seulement sur Internet mais aussi auprès de leurs utilisateurs. Ainsi, cela peut supposer des risques pour la confidentialité des données des entreprises communiquées, qu’il s’agisse d’informations sensibles internes ou de clients, ces dernières pouvant être divulguées, sans consentement explicite, avec des tiers. Aussi faudrait-il partir du principe que toute information introduite sur ce type de plateforme est susceptible de devenir publique. »

Un mauvais usage du contenu généré

36 % des employés interrogés considèrent que le manque d’explicabilité constitue un risque important auquel s’expose une entreprise qui utilise l’intelligence artificielle générative. « Une appréhension qui peut sembler légitime, les éléments pris en compte par les systèmes d’IA générative pour la production d’un résultat n’étant pas toujours intelligibles. Aussi cela peut-il rendre difficile pour l’utilisateur d’expliquer et de justifier un contenu ou une décision obtenus par le biais de ces outils. »

En plus du manque d’intelligibilité, l’IA générative présente d’autres limites de taille comme la génération de contenus erronés et biaisés. 25 % des adeptes de ChatGPT sondés ont justement pour inquiétude la diffusion d’informations inexactes par des utilisateurs qui pensent que ses réponses sont incontestables. Pis : l’IA générative tendrait à entretenir des préjugés et des discriminations, un aspect dont auraient conscience 13 % des répondants seulement. « Tous ces inconvénients posent le problème d’un mauvais usage du contenu généré par cette technologie, constate Sabrina Khoulalène. Cette problématique est perçue comme une préoccupation éthique par un tiers du panel ! »

Aussi est-il recommandé aux entreprises de ne pas prendre pour argent comptant les réponses des outils de l’IA générative et de veiller à toujours apporter des corrections aux contenus générés en appliquant des principes de logique, de pertinence, de véracité, d’objectivité et de conformité avec les lois en vigueur et les politiques de l’entreprise.

Risques… et bonnes pratiques

« Les résultats de notre étude tendent à démontrer que, malgré des avantages notables, la plupart des employés associent à ChatGPT et aux outils d’IA générative dans leur ensemble des inconvénients, dont des problèmes éthiques majeurs. Ces derniers, insiste Sabrina Khoulalène, sont principalement un potentiel remplacement d’emplois, une dépendance excessive à cette technologie, des risques sur la protection des données et une possibilité de faire un mauvais usage du contenu généré. »

Bref, mettre en place des règlements internes, former les équipes aux évolutions de l’IA, vérifier systématiquement les contenus générés, les corriger, les personnaliser et les considérer comme un complément à la réflexion -et non un substitut- sont autant de bonnes pratiques qui peuvent aider les organisations à les relever.