L’intelligence artificielle responsable et éthique est devenue le sujet brûlant de notre époque, d’autant que l’IA s’infiltre dans tous les aspects de la prise de décision et de l’automatisation. D’après une enquête IBM, 35 % des entreprises déclarent aujourd’hui utiliser l’IA dans leurs activités, et 42 % explorent cette possibilité.
La même enquête d’IBM révèle que la confiance est extrêmement importante — quatre personnes interrogées sur cinq déclarent que le fait de pouvoir expliquer comment l’IA est parvenue à une décision est important pour leur entreprise.
Cependant, l’IA reste du code — c’est-à-dire une suite de 1 et de 0. Elle n’est pas porteuse d’empathie, et fait souvent abstraction du contexte.
Elle a le potentiel de fournir des résultats biaisés et nuisibles. Au fur et à mesure que l’IA progresse dans la chaîne hiérarchique — des simples chatbots ou de la maintenance prédictive, à l’aide aux décisions exécutives ou médicales — il faut savoir faire la part des choses.
En d’autres termes, les développeurs, les responsables de la mise en œuvre, les utilisateurs et les partisans de l’IA doivent être en mesure d’expliquer leur raisonnement, d’expliquer comment les décisions sont prises et de s’adapter en permanence à de nouveaux scénarios.
La difficulté d’une IA « responsable »
Une IA responsable n’est cependant pas facile à mettre en place. Elle est synonyme de pression, en particulier pour les équipes responsables de son développement. Comme le souligne Melissa Heikkilä dans le MIT Technology Review, « l’épuisement professionnel devient de plus en plus courant dans les équipes d’IA responsable« . Les plus grandes organisations ont « investi dans des équipes qui évaluent comment nos vies, nos sociétés et nos systèmes politiques sont affectés par la façon dont ces systèmes sont conçus, développés et déployés. » Pour les petites et moyennes entreprises et les startups, cela signifie que ces responsabilités incombent aux développeurs, aux ingénieurs et aux data scientist.
Le résultat — même dans les plus grandes entreprises — est que « les équipes qui travaillent sur l’IA responsable sont souvent livrées à elles-mêmes« , constate Heikkilä. « Ce travail peut être tout aussi épuisant psychologiquement que la modération de contenu. Au final, les membres de ces équipes peuvent se sentir sous-valorisés, ce qui peut affecter leur santé mentale et conduire à l’épuisement professionnel.«
La vitesse d’adoption de l’IA ces dernières années a fait monter la pression à des niveaux intenses. L’IA est passée du labo aux chaines de production « plus rapidement que prévu au cours des dernières années« , déclare M. Thurai, qui s’est fait l’avocat d’une IA responsable. La gestion d’une IA responsable « pourrait être particulièrement épuisante s’ils sont obligés de modérer des contenus, des décisions et des données qui vont à l’encontre de leurs croyances, de leur point de vue, de leurs opinions et de leur culture, tout en essayant de maintenir une distinction entre la neutralité et leurs croyances. Étant donné que l’IA travaille 24x7x365 et que les décisions prises par l’IA sont parfois des événements qui changent la vie, les humains dans la boucle sont censés suivre ce rythme, ce qui peut conduire à l’épuisement et à des jugements et des décisions sujets à erreur.«
La loi traine
Les lois et la gouvernance « n’ont pas progressé aussi vite que l’IA« , ajoute-t-il. « Combiné avec le fait que de nombreuses entreprises n’ont pas de procédures et de directives appropriées pour l’IA éthique et la gouvernance de l’IA, cela rend ce processus encore plus compliqué.«
Ajoutez à cela les contestations potentielles par les tribunaux et les systèmes juridiques, « qui commencent à imposer de lourdes pénalités et obligent les entreprises à revenir sur leurs décisions » et vous obtenez un climat « particulièrement stressant pour les employés qui tentent de faire appliquer des règles aux systèmes d’IA.«
Le soutien de la hiérarchie fait également défaut, ce qui accroît le stress. Une étude portant sur 1 000 cadres publiée par le MIT Sloan Management Review et le Boston Consulting Group le confirme. Toutefois, l’étude révèle que si la plupart des cadres s’accordent à dire que « l’IA responsable est essentielle pour atténuer les risques liés à la technologie – y compris les questions de sécurité, de partialité, d’équité et de respect de la vie privée » – ils reconnaissent qu’elle n’est pas considérée comme une priorité ».
Comment réduire les risques
Alors, comment les promoteurs, les développeurs et les analystes de l’IA abordent-ils les problèmes liés à un éventuel épuisement professionnel ? Voici quelques moyens d’atténuer le stress et l’épuisement induits par l’IA :
- Informer les chefs d’entreprise des conséquences. Les décisions et les résultats non filtrés de l’IA font prendre le risque de poursuites judiciaires. « Les dirigeants doivent considérer le coût des dépenses en IA éthique et responsable comme un moyen d’améliorer la responsabilité de leur entreprise, plutôt que comme un poste de dépense seul« , explique Thurai. « Bien que dépenser moins d’argent maintenant puisse améliorer leur résultat net, un seul jugement judiciaire défavorable éclipserait les économies qui découleraient de ces investissements.«
- Obtenir des ressources appropriées. Le stress induit par les examens de l’IA est un phénomène nouveau qui nécessite de repenser le soutien apporté par l’entreprise. « Beaucoup de ressources en matière de santé mentale dans les entreprises technologiques sont centrées sur la gestion du temps et l’équilibre entre vie professionnelle et vie privée, mais il faut davantage de soutien pour les personnes qui travaillent sur des sujets émotionnellement et psychologiquement difficiles« , écrit Heikkilä.
- Travailler en étroite collaboration avec l’entreprise pour s’assurer que l’IA responsable est une priorité. « Toute IA doit être responsable« , dit Thurai. Il cite l’étude du MIT-BCG (mentionnée ci-dessus) qui révèle que seulement 19 % des entreprises dont l’IA est la principale priorité stratégique travaillent sur des programmes d’IA responsable. « Ce chiffre devrait être proche de 100 %« , affirme-t-il. Les managers et les employés doivent être encouragés à opérer une prise de décision holistique qui intègre l’éthique, la moralité et l’équité.
- Demandez de l’aide en amont.Demandez l’aide d’experts pour prendre des décisions éthiques en matière d’IA, plutôt que celle d’ingénieurs en IA« , déclare M. Thurai.
- Gardez les humains dans la boucle. Prévoyez toujours des stratégies de secours dans le processus de décision de l’IA. Soyez flexible et ouvert à la reconception des systèmes. Une enquête menée par SAS, Accenture Applied Intelligence, Intel et Forbes révèle qu’un répondant sur quatre admet avoir dû repenser, reconcevoir ou neutraliser un système basé sur l’IA en raison de résultats douteux ou insatisfaisants.
- Automatisez autant que possible : « L’IA est un traitement à très grande échelle« , explique M. Thurai. « Le processus manuel de validation de la qualité des données et de la validation des résultats ne fonctionne pas. Les entreprises doivent mettre en œuvre des IA ou d’autres solutions à grande échelle pour automatiser le processus.«
- Garder les biais hors des données. Les données utilisées pour former les modèles d’IA peuvent contenir des biais implicites, en raison des limites des ensembles de données. Les données qui entrent dans les systèmes d’IA doivent être bien contrôlées.
- Valider les algorithmes avant de les mettre en production. Les données qui entrent dans les algorithmes d’IA peuvent changer d’un jour à l’autre et ces algorithmes doivent être constamment testés.
« Il est facile, dans ce monde bipolaire et biaisé, de qualifier de fausses les décisions éthiques prises par l’IA« , déclare Thurai. « Les entreprises devraient faire très attention à la fois à la transparence des décisions de l’IA, à l’éthique et à la gouvernance qui sont appliquées. Une IA dissécable de fond en comble et de la transparence sont deux éléments importants. Combinez-les avec des audits réguliers pour évaluer et corriger les processus. »
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.