Oui, l


Si la plupart d’entre vous connaissent ChatGPT, un outil d’intelligence artificielle générative basé sur un modèle de langage étendu (LLM) qui fournit des réponses relativement intelligentes aux questions, peu d’entre vous l’utiliseront au travail. Pourquoi ? Parce que ChatGPT n’est pas considéré comme sûr pour les entreprises sérieuses. Bref, pour l’instant, nous en sommes encore à l’heure du bricolage.


Des efforts sont actuellement déployés pour intégrer les modèles de langage dans les environnements d’entreprise, en se concentrant sur les données des entreprises. Mais en même temps, les praticiens et les experts de l’IA appellent à la prudence dans le développement des IA et des LLM.


Telles sont les conclusions d’une enquête menée auprès de 300 praticiens et experts en IA et publiée par expert.ai. « Les modèles linguistiques spécifiques à l’entreprise sont l’avenir », affirment les auteurs du rapport. « Les conseils d’administration et, de plus en plus, les actionnaires demandent aux cadres et aux techniciens comment ils prévoient de tirer parti de cette nouvelle ère de l’IA ».

Plus d’un tiers des entreprises envisagent déjà de construire des modèles linguistiques spécifiques à l’entreprise


L’étude suggère que plus d’un tiers (37 %) des entreprises envisagent déjà de construire des modèles linguistiques spécifiques à l’entreprise.


Dans le même temps, les praticiens de l’IA mentionnent que la construction et la maintenance d’un modèle linguistique est une tâche non triviale. Une majorité d’entreprises (79 %) réalisent que l’effort requis pour former un modèle linguistique utilisable et précis propre à l’entreprise est « une entreprise majeure ».


Néanmoins, des efforts sont en cours. Les équipes prévoient déjà un budget pour l’adoption de LLM et les projets de formation de modèles, avec 17 % ayant un budget cette année, 18 % prévoyant d’allouer un budget et 40 % discutant d’un budget pour l’année prochaine.

La principale préoccupation de l’IA générative est la sécurité


« Cela est logique, car la plupart des données du domaine public utilisées pour former les LLM comme ChatGPT ne sont pas des données d’entreprise ou spécifiques à un domaine », déclarent les auteurs d’expert.ai.

« Même si un modèle linguistique a été entraîné sur différents domaines, il n’est probablement pas représentatif de ce qui est utilisé dans la plupart des cas d’utilisation complexes en entreprise, qu’il s’agisse de domaines verticaux tels que les services financiers, les assurances, les sciences de la vie et la santé, ou de cas d’utilisation très spécifiques tels que l’examen des contrats, l’évaluation des risques, la détection des fraudes. Des efforts de formation seront nécessaires pour obtenir des performances de qualité et cohérentes dans des cas d’utilisation très spécifiques ».


Pour les défenseurs de l’IA d’entreprise, dans l’enquête, la principale préoccupation de l’IA générative est la sécurité, citée par 73 % d’entre eux. Le manque de véracité est un autre problème, cité par 70 %.

L’IA pourrait réduire le besoin RH pour des tâches
spécifiques mais elle va nécessiter encore plus de
personnes pour la construire et la maintenir

Plus de la moitié (59 %) se disent préoccupés par la protection de la propriété intellectuelle et des droits d’auteur – en particulier avec les LLM tels que GPT, « formés sur de vastes étendues d’informations, dont certaines sont protégées par des droits d’auteur, et parce qu’ils proviennent de données Internet accessibles au public », affirment les auteurs du rapport. « Il s’agit d’un problème fondamental d’entrée et de sortie des déchets.


L’IA pourrait réduire le besoin en ressources humaines pour des tâches spécifiques mais, ironiquement, elle va nécessiter encore plus de personnes pour la construire et la maintenir. Plus de quatre défenseurs de l’IA sur dix (41 %) s’inquiètent de la pénurie de professionnels qualifiés ayant l’expertise nécessaire pour développer et mettre en œuvre l’IA générative d’entreprise.


Plus d’un tiers (38 %) des répondants à l’enquête s’inquiètent de la quantité de ressources informatiques nécessaires pour faire fonctionner les LLM.

Une planification minutieuse et la prise en compte de la confidentialité et de la sécurité des données

Selon les auteurs du rapport, des infrastructures, telles que des serveurs puissants ou des services de cloud computing, sont nécessaires pour soutenir le déploiement à grande échelle des modèles de langage.


L’adoption de modèles linguistiques par les entreprises nécessite une planification minutieuse et la prise en compte d’une série de facteurs, notamment la confidentialité et la sécurité des données, les exigences en matière d’infrastructure et de ressources, l’intégration avec les systèmes existants, les considérations éthiques et juridiques, ainsi que les lacunes en matière de compétences et de connaissances.


Comme pour toute technologie émergente, une adoption réussie dépend de cas d’utilisation qui démontrent une avancée significative par rapport aux méthodes précédentes. Mais il existe déjà des cas d’utilisation solides pour l’IA générative, comme le montre l’enquête :


  • Interaction homme-machine : Les modèles de langage d’entreprise serviront à fournir aux utilisateurs finaux et aux clients « un accès rapide et facile à l’information et à l’assistance, comme les détails des produits, les guides de dépannage et les questions fréquemment posées ». Les cas d’utilisation les plus courants à ce stade sont les chatbots (54 %), les questions-réponses (53 %) et le service client (23 %).

  • Génération de langage : « L’IA générative peut écrire de nouveaux contenus, créer des images réalistes, générer des textes marketing, composer de la musique et même générer du code de programmation. » Les deux exemples les plus populaires à l’heure actuelle sont le résumé de contenu (51 %) et la génération de contenu (45 %).

  • Extraction d’informations : Les principaux cas d’utilisation sont l’extraction de connaissances (49%), la classification de contenu et la création de métadonnées (38%). La catégorisation du contenu (27%) et l’extraction d’entités (20%) sont également mentionnées.


  • Recherche : La recherche générale (39%), la recherche sémantique (31%) et les recommandations (29%) sont considérées comme des « outils importants pour aider les gens à trouver l’information dont ils ont besoin rapidement et avec précision, sans avoir à parcourir un grand nombre de résultats non pertinents ».


Alors que de nombreuses entreprises pourraient chercher à adopter des LLM d’entreprise, la plupart des défenseurs de l’IA dans l’enquête conseillent la prudence en ce qui concerne l’IA. Près des trois quarts (71 %) sont d’accord pour dire qu’une réglementation gouvernementale est immédiatement nécessaire pour gérer l’utilisation commerciale légitime de l’IA et son utilisation malveillante. L’IA et les LLM « peuvent avoir d’importantes implications éthiques et juridiques, notamment en ce qui concerne les questions de partialité, d’équité et de véracité », avertissent les auteurs du rapport.


Source : « ZDNet.com »

Cliquez ici pour lire l’article depuis sa source.

Laisser un commentaire