Les IA génératives, telles que ChatGPT, ont révolutionné la façon dont nous interagissons avec l’IA et dont nous la percevons. Des activités telles que l’écriture, le codage et la réponse à des offres d’emplois sont devenues beaucoup plus faciles et rapides. Cependant, tous ces aspects positifs ne sont pas sans risques.
L’une des principales préoccupations liées à l’IA est la confiance et la sécurité. Ce qui a même amené certains pays à interdire complètement ChatGPT ou à reconsidérer leur politique en matière d’IA afin de protéger les utilisateurs.
Selon Avivah Litan, analyste chez Gartner, certains des plus grands risques de l’IA générative concernent la confiance et la sécurité et incluent les hallucinations, les deepfakes, la confidentialité des données, les questions de droits d’auteur et les problèmes de cybersécurité.
1. Les hallucinations de l’intelligence artificielle
Les hallucinations font référence aux erreurs que les modèles d’IA sont susceptibles de commettre. Car, bien qu’ils soient avancés, ils ne sont toujours pas humains et s’appuient sur la formation et les données pour fournir des réponses.
Si vous avez déjà utilisé un chatbot d’IA, vous avez probablement été confronté à ces hallucinations en raison d’une mauvaise compréhension de votre message ou d’une réponse manifestement erronée à votre question.
Selon M. Litan, les données d’entraînement peuvent conduire à des réponses biaisées ou factuellement incorrectes, ce qui peut constituer un grave problème lorsque les gens se fient à ces robots pour obtenir des informations. « Les données d’entraînement peuvent donner lieu à des réponses biaisées ou erronées, mais il peut être difficile de les repérer, d’autant plus que les solutions sont de plus en plus crédibles et fiables », explique M. Litan.
2. Les deepfakes de l’IA
Un deepfake utilise l’IA générative pour créer des vidéos, des photos et des enregistrements vocaux qui sont faux mais qui reprennent l’image et la ressemblance d’une autre personne.
La photo virale du pape François vêtu d’une veste à manches longues, générée par l’IA, ou la chanson de Drake et The Weeknd, générée par l’IA, qui a recueilli des centaines de milliers de streams, en sont des exemples parfaits.
« Ces fausses images, vidéos et enregistrements vocaux ont été utilisés pour attaquer des célébrités et des hommes politiques, pour créer et diffuser des informations trompeuses, et même pour créer de faux comptes ou pour prendre le contrôle de comptes légitimes existants et s’y introduire », explique M. Litan.
Comme les hallucinations, les deepfakes peuvent contribuer à la diffusion massive de faux contenus, entraînant la propagation de fausses informations, ce qui constitue un grave problème de société.
3. La question de la confidentialité des données utilisées par les IA
La protection de la vie privée est également une préoccupation majeure de l’IA générative. Pourquoi ? Parce que les données des utilisateurs sont souvent stockées pour l’entraînement des modèles. C’est cette préoccupation qui a poussé l’Italie à interdire le ChatGPT, au motif qu’OpenAI n’était pas légalement autorisée à collecter des données sur les utilisateurs.
« Les employés peuvent facilement exposer les données sensibles et propriétaires de l’entreprise lorsqu’ils interagissent avec des solutions de chatbot d’IA générative », explique M. Litan. « Ces applications peuvent stocker indéfiniment les informations saisies par les utilisateurs, et même les utiliser pour former d’autres modèles, ce qui compromet encore davantage la confidentialité. »
M. Litan souligne qu’en plus de compromettre la confidentialité de l’utilisateur, les informations stockées risquent également de « tomber entre de mauvaises mains » en cas de violation de la sécurité.
4. La cybersécurité de l’IA
Les capacités avancées des modèles d’IA générative, telles que le codage, peuvent également tomber entre de mauvaises mains, ce qui pose des problèmes de cybersécurité.
« En plus des menaces d’ingénierie sociale et de phishing plus avancées, les attaquants pourraient utiliser ces outils pour générer plus facilement des codes malveillants », explique Litan.
Selon M. Litan, même si les fournisseurs qui proposent des solutions d’IA générative assurent généralement aux clients que leurs modèles sont formés pour rejeter les demandes malveillantes en matière de cybersécurité, ces fournisseurs ne donnent pas aux utilisateurs finaux la possibilité de vérifier toutes les mesures de sécurité qui ont été mises en œuvre.
5. Questions relatives au droit d’auteur
Le droit d’auteur est une préoccupation majeure car les modèles d’IA générative sont formés sur des quantités massives de données internet qui sont utilisées pour générer un résultat.
Ce processus de formation signifie que des œuvres qui n’ont pas été explicitement partagées par la source originale peuvent ensuite être utilisées pour générer un nouveau contenu.
Le droit d’auteur est une question particulièrement épineuse pour les œuvres d’art générées par l’IA, quelle que soit leur forme, y compris les photos et la musique.
Pour créer une image à partir d’un message, les outils de génération d’IA, tels que DALL-E, se réfèrent à la grande base de données de photos sur laquelle ils ont été formés. Le résultat de ce processus est que le produit final peut inclure des aspects du travail ou du style d’un artiste qui ne lui sont pas attribués.
Étant donné que les œuvres exactes sur lesquelles les modèles d’IA générative sont formés ne sont pas explicitement divulguées, il est difficile d’atténuer ces problèmes de droits d’auteur.
Quelle est la prochaine étape ?
Malgré les nombreux risques associés à l’IA générative, M. Litan ne pense pas que les organisations devraient cesser d’explorer cette technologie. Elles devraient plutôt créer une stratégie à l’échelle de l’entreprise qui cible la gestion de la confiance, du risque et de la sécurité de l’IA.
« Les développeurs d’IA doivent travailler de toute urgence avec les décideurs politiques, y compris les nouvelles autorités réglementaires qui pourraient voir le jour, afin d’établir des politiques et des pratiques pour la surveillance de l’IA générative et la gestion des risques », déclare M. Litan.
Source : « ZDNet.com »
Cliquez ici pour lire l’article depuis sa source.