Avec l’émergence de ChatGPT, qui séduit et effraie à la fois par sa capacité à créer du contenu de qualité en quelques secondes, l’IA générative occupe le devant de la scène depuis le début de l’année. Bien que les fondements de la technologie du Large Language Model (LLM) existent depuis un certain temps, celle-ci a finalement atteint un point de basculement cette année pour dépasser les simples outils de chat (finalement pas vraiment utiles) que les utilisateurs connaissent déjà. Pour la première fois et grâce à ChatGPT, ces derniers réalisent à quel point la technologie évolue et en quoi elle peut faciliter leur travail et leur permettre de se concentrer sur des tâches qui requièrent un véritable effort de réflexion.
Il est certain que ChatGPT peut devenir le nouvel iPhone de cette décennie et radicalement changer notre façon de travailler et de vivre. C’est pourquoi, au cours des années à venir, les entreprises devront adapter leurs pratiques et leurs processus pour s’adapter à l’utilisation de l’IA générative.
Or, pour faire le meilleur usage possible de toute solution émergente, il est primordial de bien en maîtriser le fonctionnement et d’en comprendre les limites afin de se prémunir contre tout danger ou problème éventuel. La question de la confidentialité des données, en particulier, étant un sujet extrêmement sensible, la sécurité doit donc constituer une priorité pour toute entreprise envisageant d’utiliser l’IA générative.
L’émergence de « supers collaborateurs »
Le buzz autour de ChatGPT et de l’IA générative étant omniprésent, de nombreux salariés peuvent voir cette technologie comme étant arrivée à maturité et comme étant susceptible de menacer les emplois si les entreprises la mettaient en œuvre dans les flux de travail quotidiens. Bien qu’il s’agisse certainement de la forme d’IA la plus évoluée et la plus impressionnante que le grand public ait vue jusqu’à présent, il ne s’agit certainement pas de la version définitive. ChatGPT présente de nombreuses limitations qui l’empêchent de fonctionner sans intervention humaine. Nous ne sommes pas encore au stade où nous pouvons faire implicitement confiance à tout ce que ChatGPT produit, car il ne peut que résumer les informations qu’il a accumulées sur internet. La solution est capable de s’appuyer sur de multiples sources qui peuvent ne pas être totalement exactes et le contenu qui en résulte peut par conséquent être chargé d’erreurs ou d’inexactitudes.
C’est la raison pour laquelle l’usage d’un outil d’IA générative requiert toujours l’intervention d’une intelligence humaine au cœur du dispositif. L’expert doit alors être en mesure d’examiner le contenu produit et d’apporter les modifications nécessaires pour s’assurer que ce contenu est correct avant sa diffusion.
Cela dit, même s’il n’est pas totalement formé à l’usage de ChatGPT, l’utilisateur conscient des limites peut toujours trouver des moyens de l’exploiter pour mieux exercer son métier et gagner en productivité et en efficacité : et devenir en quelque sorte un « super salarié » !
De potentiels effets négatifs
Toutefois, si l’IA générative est en mesure d’améliorer les performances des salariés, elle peut également en faire autant pour les attaquants. A titre d’exemple, si un pirate informatique envoie un e-mail de phishing à des salariés en se faisant passer pour un responsable de l’entreprise réclamant un transfert d’argent, il est peu probable qu’il parvienne à ses fins, la plupart des employés étant sensibilisés à la sécurité et l’e-mail contenant suffisamment de signes indiquant qu’il n’est pas crédible. L’IA générative peut en revanche changer la donne car son usage permet de personnaliser l’e-mail qui sera envoyé, en y ajoutant des données propres à chaque cible : des données qui auront été extraites d’internet sans que cela ne demande aucun effort supplémentaire à l’attaquant.
Des pièges potentiels existent également en interne, car l’IA générative représente une autre solution qui devra être intégrée à l’infrastructure numérique d’une entreprise, au risque d’étendre la surface d’attaque. La fuite de données suscite déjà des inquiétudes potentielles. Presque tous les grands noms de la technologie créent actuellement leurs propres services de type OpenAI et les entreprises devront sélectionner ceux qui conviennent à leurs activités. La solution de leur choix nécessitera alors un accès à l’intranet pour assister pleinement les collaborateurs. Pour aider à la réalisation de toute tâche quotidienne prise en charge par l’outil d’IA, il faudra peut-être prévoir des dispositifs (IoT) supplémentaires, tant au bureau que pour ceux qui travaillent depuis leur domicile. Autrement dit, l’équipe chargée de la sécurité informatique doit surveiller un grand nombre d’appareils et de solutions. C’est aussi une toute nouvelle voie que les attaquants peuvent exploiter pour accéder aux données et aux actifs d’une entreprise.
Sûr de réussir
Si l’architecture de sécurité de l’entreprise est solide, il ne faut donc pas craindre d’ajouter de nouveaux appareils ou solutions, quel que soit le fournisseur. Par architecture solide, j’entends une architecture Zero Trust qui isole alors le dispositif attaqué et l’empêche de se connecter à tout autre élément. Il est alors possible d’ajouter sans crainte de nombreux appareils IoT, que ce soit au bureau ou à domicile, pour que les collaborateurs puissent bénéficier de l’IA générative. En effet, même si l’un de ces dispositifs est compromis par une attaque d’acteurs externes ou par un problème de sécurité accidentel provoqué par un salarié, l’architecture Zero Trust permet de l’isoler du reste de l’intranet et de minimiser ainsi la surface d’attaque.
L’IA générative s’avère également un soutien pour les équipes sécurité. En utilisant la vaste quantité de données contextuelles dont elle dispose, l’IA peut prendre des décisions semblables à celles d’un être humain à une vitesse et à une échelle bien supérieures à celles d’un humain. Les équipes de cybersécurité deviennent alors plus agiles qu’auparavant.
Ce n’est sans doute que le début, et les perspectives offertes par ChatGPT et par la technologie de l’IA générative sont énormes pour les entreprises. Les premiers à l’avoir adoptée sont peut-être déjà en train d’en récolter les fruits. Mais comme avec toute nouvelle technologie, des dangers extérieurs viendront toujours chercher à exploiter la moindre faiblesse de la solution. Il est donc indispensable de s’assurer de disposer d’une architecture de sécurité capable de s’adapter rapidement aux nouveaux outils, et capable de garantir que le processus de transformation numérique se fera sans heurts. Il en va de la santé de toute entreprise.
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.