Vendre en ligne rapidement et pas cher

démarrer le e-commerce rapidement

AI : l’aspect éthique doit être réglementé

Juil 29, 2020 | Ai, Latest | 0 commentaires

Un chef d’entreprise belge sur trois reconnaît que ses outils d’intelligence artificielle ont probablement déjà pris des décisions contraires à l’éthique.

Les entreprises belges n’ont actuellement aucun cadre régissant la responsabilité éthique de leurs outils basés sur l’intelligence artificielle. C’est ce que révèle Avanade à l’issue une étude menée auprès des dirigeants belges sur l’éthique et l’intelligence artificielle. Un chef d’entreprise belge sur trois reconnaît que les outils d’AI utilisés dans son entreprise ont probablement pris des décisions contraires à l’éthique dans le passé.

«Le coronavirus a accéléré la révolution numérique de nombreuses entreprises et l’intelligence artificielle y occupe une place importante. Les récentes révélations sur le racisme institutionnel prouvent d’autant plus que les dirigeants d’entreprises doivent s’assurer que la technologie ne contient pas de préjugés systémiques. Puisque nous savons que les cadres réglementaires sont souvent à la traîne par rapport aux évolutions technologiques, nous devons être conscients des risques. Nous devons prioriser l’éthique numérique», explique Johann Corlemeijer, Country Manager chez Avanade Belgique.  

Les inquiétudes principales concernent la sécurité, la vie privée et la responsabilité

L’étude démontre que les chefs d’entreprise belges sont surtout préoccupés par les atteintes à la sécurité (84 %), à la vie privée (82 %). Et moins par les questions de responsabilité (74 %).

Patrick Tack, Data & AI Lead Belgium, Avanade, confirme : «Nous sommes stimulés par l’inquiétude suscitée par les questions de sécurité et de respect de la vie privée. Toutefois, les défaillances de l’éthique numérique peuvent avoir un impact bien plus dévastateur sur les personnes que les atteintes à la sécurité et à la vie privée. Déjà, nous avons déjà relevé des préjugés systématiques dans le secteur des soins de santé, des services financiers et du recrutement. Le fait qu’une personne n’obtienne pas un emploi en raison de son ethnicité, à cause d’un algorithme erroné, devrait retenir autant notre attention que la possibilité de violation de la vie privée ou de vol d’identité.»

Heureusement, l’étude a montré que 7 personnes interrogées sur 10 s’inquiètent de la présence de préjugés sociétaux dans les systèmes d’AI.

Incertitudes et manque d’information

Les résultats de l’enquête révèlent que les chefs d’entreprise belges sont mal informés quant aux risques éthiques. 44 % des répondants ne sont pas conscients du risque de partialité du système d’AI. Et 33 % n’envisagent pas les questions de transparence, comme le fait qu’une personne puisse ignorer qu’elle interagit avec une intelligence artificielle. En outre, un cinquième (22 %) des interrogés n’est pas conscient des risques liés à la violation de la vie privée. Par exemple lorsque les systèmes d’IA collectent et utilisent des données privées à l’insu de la personne concernée ou sans son consentement.

Par conséquent, seule une minorité des personnes interrogées admet maîtriser les principes de base pour garantir une responsabilité éthique dans l’utilisation des outils d’IA. Plus de deux tiers (70 %) reconnaissent ne pas avoir de politique en place pour garantir la responsabilité éthique de leurs outils d’AI. Il n’est donc pas surprenant qu’un tiers (33 %) des répondants qui utilisent l’AI admette qu’il est très probable que les outils aient déjà pris une décision contraire à l’éthique. En outre, la moitié des chefs d’entreprise belge (52 %) pensent qu’ils seront eux-mêmes traités de manière non éthique par un outil AI.

Un besoin de réglementation

«Ces chiffres montrent l’incertitude qui règne parmi les chefs d’entreprise belges. Il y a un manque de contrôle évident, poursuit Patrick Tack. L’intelligence artificielle est une technologie incroyable qui fera avancer de nombreux secteurs. Cependant, il est crucial que les chefs d’entreprise et leur organisation soient formés à sa mise en œuvre. Et tout autant à son usage éthique. Cette responsabilité incombe aux développeurs, non à l’utilisateur final.»

Huit dirigeants sur dix (79 %) ont mentionné l’usage éthique de l’AI comme une priorité pour leur entreprise dans les trois prochaines années. L’enquête a révélé un fort consensus parmi les responsables d’entreprise belges : neuf sur dix (88 %) déclarent que l’aspect éthique de l’AI doit être réglementé.

Johann Corlemeijer, Country Manager chez Avanade Belgique, poursuit : «Face à une crise mondiale, la transparence et la confiance sont essentielles. Les citoyens sont déjà suffisamment sous pression dans leur vie personnelle, ils ont besoin d’interactions authentiques et solidaires avec les entreprises. Il y a un besoin pressant de cadre réglementaire. Il faut pouvoir s’assurer que nous tirons tous les bénéfices de cette technologie tout en abordant les principales implications éthiques.»

 

Ces articles parlent de "Artificial Intelligence"

Artificial Intelligence, Deep Learning, Machine Learning

Follow this topic

Summary
AI : l'aspect éthique doit être réglementé
Article Name
AI : l'aspect éthique doit être réglementé
Description
Un chef d’entreprise belge sur trois reconnaît que ses outils d’intelligence artificielle ont probablement déjà pris des décisions contraires à l'éthique.
Author
Publisher Name
Solutions Magazine
Publisher Logo