Quelle trajectoire SI après ChatGPT ?

OpenAI, est devenu en quelques mois un acteur majeur de l’intelligence artificielle, en ouvrant gratuitement, puis en mettant sur le marché (compte payant), son service ChatGPT et ses diverses déclinaisons (modèles, API, connecteurs,…). Depuis, tous les acteurs qui étaient crédités d’une certaine crédibilité dans ce domaine, doivent réaligner leur stratégie et multiplier les annonces, pour répondre au potentiel technologique et commercial amené plus largement par toutes les IA génératives. GreenSI attends d’ailleurs avec impatience la conférence I/O de Google ce 10 mai, et les nouvelles annonces qui y seront faites pour continuer de réduire l’écart avec OpenAI, à défaut de reprendre les devants (voir Google Search, le nouveau Kodak ?)

Mais ces changements massifs de trajectoires sur les services de l’Internet, ont un déjà un impact aujourd’hui sur les systèmes d’information des entreprises ou des collectivités territoriales. C’est ce que nous allons voir dans ce billet.

Pour GreenSI, le premier point mis en exergue par OpenAI, c’est d’avoir démontré la valeur de la convergence technologique.

J’ai toujours été agacés par les appels téléphoniques de prospection du type : « Bonjour, nous sommes les spécialistes de la data et je voulais échanger avec vous sur vos projets de data, d’IA, voire de blockchain. ». Il est pourtant évident que les projets sont portés par les usages et qu’ils vont mixer toutes les technologies de l’information, y compris des objets connectés ou des plateformes hardware avancées, pour délivrer leur ROI. Donc, non, désolé,  il n’y a pas de projet de data. Tous les projets sont des projets de data, et d’ailleurs ce depuis que l’informatique s’appelle « data processing ».

En réunissant plusieurs technologies de pointe, OpenAI a trouvé la bonne combinaison qui a fait mouche pour faire de ChatGPT un outil particulièrement attractif et inspirant, autour d’un usage : le chatbot.

Les chatbot existaient déjà, reposant sur le traitement automatique du language naturel (NLP) et des bases de connaissances métiers ou sectorielles. Le modèle linguistique Generative Pre-trained Transformer (GPT) existait également et n’a pas été créé par OpenAI. Mais la combinaison des deux a permis de s’attaqer à des usages plus avancées du chatbot, comme la génération de texte, la synthèse de contenu ou encore la réponse à des questions.

Le premier enseignement, qui est finalement une évidence mais que vos fournisseurs préférés ne mettront pas nécessairement en avant, c’est bien sûr que vos investissement dans les technologies de Chatbot antérieures aux LLM (Large Language Models) viennent de perdre leur valeur d’usage et devront être fortement upgradées. Il est donc certainement important de stopper dès maintenant tout développement dans ce domaine, avant d’avoir posé une stratégie de réponse à la généralisation des chatbots dans les moteurs de recherche, qui, comme Microsoft Bing, mais aussi le navigateur libre Opera, vont intégrer des équivalents de ChatGPT dans leurs produits. 

Ces chatbots sont des pièces du puzzle de la relation clients multi-canale des entreprises, mais aussi des collectivités locales qui les utilisent pour faciliter l’accès des services aux citoyens. Les stratégies multi-canales sont donc également chamboulée, en partie, par ces évolutions récentes et il ne serait pas sage non plus, de lancer aujourd’hui un projet CRM d’envergure, sans une analyse fine de l’impact des IA génératives et de leur impact sur l’expérience client, la satisfaction et la fidélisation.

D’ailleurs, même si votre entreprise n’utilise pas de chatbot, si les internautes adoptent massivement de passer par un portail avec un chatbot intelligent, les flux actuels de l’accès internet font fortement évoluer et remettre en question les politiques d’acquisition de trafic. On a déjà connu cela avec le développement des blogs (textes) début des années 2000, puis l’effondrement de leur trafic pour Youtube (vidéo), et ensuite Instagram (photos).

C’est d’ailleurs bien ce qui dérange Google, dont le modèle économique dépend aujourd’hui de ces flux depuis son moteur de recherche, et c’est également ce qui rend Microsoft aggressif avec Bing, qui lui a une faible part de marché publicitaire tirée de ces flux, donc qui ne peut que tirer profit d’un chamboulement à venir. Amazon est doublement en embuscade avec Alexa qui n’a pas encore convaincu pour rappatrier la recherche vocale sur son assistant, et bien sûr sur le Cloud car sa position de n°1 pourrait être challengé par le développement de IS générative et la puissance de calcul dont elles ont besoin. Apple est dans une situation assez proche, avec la maîtrise des terminaux mobiles et de ce qui y tourne, et un Siri qui a peu de succès en dehors de la communauté Apple.

Autre point qui a déjà fait l’objet d’un premier billet : ces échanges « semblent » intelligents !
En effet, ChatGPT, comme les autres IA génératives produisant des images, ont rendu perceptible au grand public (et au top management !) la notion d’intelligence artificielle. Avant, c’était un objet technique invisible, qui était là pour analyser et valoriser les données du grand public, mais rarement pour lui parler ou lui rendre service. 

La composante IA générative ne pourra donc plus être absente des stratégies AI des entreprises. Quand elle le sera, ce sera certainement questionné, voire suspect  « has been ».  

C’est clair, la capacité de ChatGPT à interagir avec les humains d’une manière qui donne l’impression qu’il comprend réellement ce qu’ils disent, est impressionnante. Elle a mis la barre très haute pour toutes les IHM. Et pourtant (aujourd’hui) ChatGPT ne comprend rien, et même pire, il peut donner des informations erronées ou biaisées, malgré les efforts d’OpenAI pour améliorer constamment le modèle. Le risque que les utilisateurs considèrent comme véridiques des informations incorrectes, et prennent des décisions en conséquence, est donc bien réel.

C’est pourquoi aucune organisation ne peut juste ignorer le phénomène, sous peine de laisser ses salariés mal informés créer des fuites de données, et réduire la qualité de leur livrables après y avoir introduit de multiples erreurs. Et c’est sans compter sur les risques juridiques liés à l’utilisation des modèles linguistiques de grande taille, notamment en ce qui concerne la diffusion d’informations erronées. Qui sera responsable de quoi dans une acquisition influencée par des données erronnées ?

L’impact minimum est donc d’établir la gouvernance pour une utilisation responsable, en veillant à ce que chacun soit conscient des risques, des enjeux et des bonnes pratiques.

Pour ceux qui voudront aller plus loin que la simple modification des règles de gouvernance associées à cette évolution technologique, les premières opportunités émergent.

Mais contrairement à ce que l’on peut lire dans la presse, qui remplace déjà beaucoup de métiers par de l’IA dès 2023, la vitesse de déploiement sera limitée ou accélérée par la nécessaire conduite des changements qui s’impose. 

En effet, une étape indispensable à une telle transformation est l’application des modèles de type Pre-trained Transformer à des connaissances spécifiques à votre industrie ou vos métiers.

Et cela veut dire que vous disposez, dans un format numérique, un corpus de connaissances précises de vos métiers pour entraîner le modèle. D’où le sceptiscisme de GreenSI devant les articles a sensation comme « Les IA comme ChatGPT vont bientôt remplacer 300 millions de travailleurs dans le monde ». Tout est dans le « bientôt », qui d’ailleurs sera peut-être « jamais », si on considère que la gestion des connaissances spécifique des entreprises n’a pas été jusque là, la priorité des investissements SI.

Seules ces données spécifiques permettront d’améliorer la précision et la pertinence des réponses, en comprenant mieux le jargon, les concepts et les enjeux propres à une activité, et en interagissant de façon plus pertinente avec les utilisateurs ou pour l’analyse de données.

A partir de là, et compte tenu de la technicité de la chose, la question de se regrouper pour développer un tel modèle au sein d’une industrie ou d’un métier peut se poser. Car n’oublions pas que derrière la relative simplicité de l’interface, se cachent les centaines de millions de dolars investis pour amener les modèles théoriques au niveau actuel de traitement de la connaissance générale. Il n’est donc pas évident que l’apprentissage d’un modèle spécifique à une industrie, soit à la portée financière et technique de toutes les bourses d’entreprises. GreenSI verrait bien se développer plus facilement des modèles SaaS privés, partagés à plus grande échelle, tout en gérant les problématiques de sécurité de l’information de l’entreprise.

A partir de là, on aura la relative certitude (probabiliste !) qu’on pourra faire confiance à l’automatisation de certaines tâches spécifiques, telles que la rédaction de rapports, la gestion de la documentation technique, l’analyse de données, la détection d’anomalies, la prévision des tendances, …  sans faire appel à 100% à un employé humain. 
Mais cette recherche de nouveaux usages et l’adaptation des processus de travail, demandera la participation des employés, car le modèle cible, à moyen terme, sera certainement celui d’un humain augmenté, plus qu’une automatisation complète. 

La formation et l’apprentissage en continu, seront alors également des domaines possibles d’utilisation pour servir de ressources éducatives. On pourra faire confiance au contenu pédagogique généré à la volée, et aux réponses données aux apprenants ou pour assister les formateurs dans l’adaptation des supports au contexte précis de l’entreprise.

En resumé, que ce soit en termes de convergence technologique, de rupture dans les IHM, d’hybridation des processus ou de Gouvernance des données, les IA génératives ont déjà un impact, quelques mois après leur apparition au grand public.

Et à moyen terme, pourquoi ne pas imaginer un « Alexa professionnel », qui serait connecté aux bases de données de l’entreprise et pourrait aider les employés en synthétisant les informations issues de différentes sources, pour améliorer leur efficacité et leur productivité ?

En lui ajoutant le vocal, avec du « speech to text » pour alimenter le chat en automatique, on ne doit plus être très loin des interfaces imaginé dans les année 1970 dans Star Trek

« Computer, what is the nature of the universe? » – Lieutenant Commander Data