Le véritable objectif de l

Le mathématicien britannique Alan Turing a écrit en 1950 : « Je me propose d’examiner la question « Les machines peuvent-elles penser ? ». Son enquête a encadré le débat pendant des décennies de recherche sur l’intelligence artificielle. Pour deux générations de scientifiques qui se sont penchés sur l’IA, la question de savoir s’il était possible d’atteindre une intelligence « véritable » ou « humaine » a toujours constitué une partie importante du travail.

L’IA est peut-être à un tournant où ces questions importent de moins en moins à la plupart des gens.

L’émergence, ces dernières années, de ce que l’on appelle l’IA industrielle pourrait marquer la fin de ces préoccupations nobles. L’IA a plus de possibilités aujourd’hui qu’à n’importe quel moment au cours des 66 années qui ont suivi la création du terme « IA » par l’informaticien John McCarthy. Par conséquent, l’industrialisation de l’IA fait passer l’accent de l’intelligence aux réalisations.

De l’intelligence à la pratique

Ces réalisations sont remarquables. Elles comprennent un système capable de prédire le repliement des protéines, AlphaFold, de l’unité DeepMind de Google, et le programme de génération de texte GPT-3 de la jeune entreprise OpenAI. Ces deux programmes sont extrêmement prometteurs sur le plan industriel, qu’on les qualifie ou non d’intelligents.

Entre autres choses, AlphaFold permet de concevoir de nouvelles formes de protéines, une perspective qui a électrisé la communauté des biologistes. GPT-3 trouve rapidement sa place en tant que système capable d’automatiser des tâches commerciales, comme répondre par écrit aux demandes des employés ou des clients sans intervention humaine.

Ce succès pratique, stimulé par un secteur des semi-conducteurs prolifique, dirigé par le fabricant de puces Nvidia, semble pouvoir dépasser l’ancienne préoccupation de l’intelligence.

Dans aucun coin de l’IA industrielle, personne ne semble se soucier de savoir si ces programmes vont atteindre l’intelligence. C’est comme si, face à des réalisations pratiques dont la valeur est évidente, la vieille question « Mais est-ce intelligent ? » cessait d’avoir de l’importance.

Débat de chercheurs

Comme l’a écrit l’informaticien Hector Levesque, lorsqu’il est question de la science de l’IA par rapport à la technologie, « Malheureusement, c’est la technologie de l’IA qui retient toute l’attention ».

Il est certain que la question de l’intelligence véritable reste importante pour une poignée de penseurs. Au cours du mois dernier, ZDNET a interviewé deux éminents chercheurs qui sont très concernés par cette question.

Yann LeCun, responsable scientifique de l’IA chez Meta Properties, propriétaire de Facebook, a longuement discuté avec ZDNET d’un article qu’il a publié cet été et qui constitue une sorte de réflexion sur la direction que doit prendre l’IA. Yann LeCun s’est dit préoccupé par le fait que le travail dominant du deep learning aujourd’hui, s’il poursuit simplement son cours actuel, n’atteindra pas ce qu’il appelle la « véritable » intelligence, qui comprend des choses telles que la capacité d’un système informatique à planifier un plan d’action en utilisant le bon sens.

Yann LeCun exprime l’inquiétude d’un ingénieur qui craint que, sans véritable intelligence, de tels programmes ne se révèlent fragiles, c’est-à-dire qu’ils pourraient se briser avant même de faire ce que nous voulons qu’ils fassent. « Vous savez, je pense qu’il est tout à fait possible que nous ayons des voitures autonomes de niveau 5 sans bon sens », a déclaré Yann LeCun à ZDNET, en faisant référence aux efforts de Waymo et d’autres pour construire des ADAS (systèmes avancés d’aide à la conduite) pour la conduite autonome, « mais vous allez devoir concevoir l’enfer pour cela. »

Le professeur émérite de l’université de New York Gary Marcus, qui a souvent critiqué le deep learning, a déclaré à ZDNET ce mois-ci que l’IA en tant que domaine était bloquée pour ce qui est de trouver quelque chose qui ressemble à l’intelligence humaine. « Je ne veux pas ergoter sur le fait qu’il s’agisse ou non d’intelligence », a déclaré Gary Marcus à ZDNET. « Mais la forme d’intelligence que nous pourrions appeler intelligence générale ou intelligence adaptative, je me soucie de l’intelligence adaptative […] Nous n’avons pas de machines comme ça. »

Un certain rejet des questions scientifiques

De plus en plus, les préoccupations de LeCun et de Marcus semblent désuètes. Les professionnels de l’IA industrielle ne veulent pas poser de questions difficiles, ils veulent simplement que tout se passe bien. Alors que de plus en plus de personnes mettent la main sur l’IA, des personnes telles que les data scientists et les ingénieurs des voitures à conduite autonome, des personnes éloignées des questions scientifiques fondamentales de la recherche, la question « Les machines peuvent-elles penser ? » devient moins pertinente.

Même les scientifiques qui se rendent compte des lacunes de l’IA sont tentés de mettre cela de côté pour savourer l’utilité pratique de cette technologie.

Demis Hassabis, cofondateur de DeepMind, est un chercheur plus jeune que Marcus ou LeCun, mais conscient de la dichotomie entre le pratique et le profond. Lors d’une conférence en 2019 à l’Institut d’études avancées de Princeton, Demis Hassabis a noté les limites de nombreux programmes d’IA qui ne pouvaient faire qu’une seule chose bien, comme un savant idiot. DeepMind, a déclaré Demis Hassabis, essaie de développer une capacité plus large et plus riche. « Nous essayons de trouver une méta-solution pour résoudre d’autres problèmes », a-t-il déclaré. Et pourtant, Demis Hassabis est tout aussi amoureux des tâches particulières dans lesquelles la dernière invention de DeepMind excelle.

Lorsque DeepMind a récemment dévoilé une méthode améliorée pour effectuer de l’algèbre linéaire, les mathématiques au cœur du deep learning, Demis Hassabis a fait l’éloge de cette réalisation, indépendamment de toute prétention à l’intelligence. « Il s’avère que tout est une multiplication matricielle, de l’infographie à la formation des réseaux neuronaux », a écrit Demis Hassabis sur Twitter. C’est peut-être vrai, mais cela laisse entrevoir la possibilité d’écarter la quête de l’intelligence au profit du perfectionnement d’un outil, comme si l’on disait : « Si ça marche, pourquoi demander pourquoi ?

Le domaine de l’IA connaît un changement d’attitude. Il fut un temps où chaque réalisation d’un programme d’IA, quelle que soit sa qualité, était accueillie par une remarque sceptique : « Mais ça ne veut pas dire que c’est intelligent. » C’est un schéma que l’historienne de l’IA Pamela McCorduck a appelé « moving the goalposts ».

De nos jours, les choses semblent aller dans le sens inverse : Les gens sont enclins à attribuer avec désinvolture l’intelligence à tout ce qui est étiqueté IA. Si un robot de chat tel que le LAMDA de Google produit suffisamment de phrases en langage naturel, quelqu’un soutiendra qu’il est sensible.

Le mathématicien britannique prévoyait que « l’opinion générale éduquée »
finirait par accepter que les machines sont intelligentes.

Alan Turing
lui-même a anticipé ce changement d’attitude. Il a prédit que les
façons de parler des ordinateurs et de l’intelligence évolueraient en
faveur de l’acceptation du comportement des ordinateurs comme étant
intelligent. « Je crois qu’à la fin du siècle, l’usage des mots
et l’opinion générale éduquée auront tellement changé que l’on pourra
parler de machines pensantes sans s’attendre à être contredit », écrivait
Alan Turing.

Une bataille pour la rhétorique

Alors que la question sincère de l’intelligence s’estompe, la rhétorique vide de l’intelligence est autorisée à flotter librement dans la société pour servir d’autres agendas.

Dans un éloge brillamment confus publié récemment dans Fast Company, rédigé par un cadre de l’industrie informatique, Michael Hochberg, et un général de l’armée de l’air à la retraite, Robert Spalding, les auteurs font des affirmations désinvoltes sur l’intelligence comme moyen d’ajouter de la musique d’orgue à leur avertissement sinistre de risque géopolitique : « Les enjeux ne pourraient pas être plus élevés dans la formation des systèmes d’intelligence générale artificielle. L’IA est le premier outil qui reproduit de manière convaincante les capacités uniques de l’esprit humain. Elle a la capacité de créer une expérience utilisateur unique et ciblée pour chaque citoyen. Elle peut potentiellement être l’outil de propagande ultime, une arme de tromperie et de persuasion comme il n’en a jamais existé dans l’histoire. »

La plupart des spécialistes s’accordent à dire que « l’intelligence artificielle générale », si tant est que ce terme ait un sens, est loin d’être atteint par la technologie actuelle. Les affirmations de Hochberg et Spalding sur ce que les programmes peuvent faire sont très exagérées.

Ces affirmations cavalières sur ce que l’IA est en train d’accomplir occultent les remarques nuancées de personnes telles que LeCun et Marcus. On assiste à la formation d’un régime rhétorique qui s’intéresse à la persuasion, et non à l’intelligence.

C’est peut-être la direction que prendront les choses dans un avenir prévisible. Si l’IA fait de plus en plus de choses, en biologie, en physique, dans les affaires, en logistique, en marketing et dans la guerre, et si la société s’y habitue, il y aura peut-être de moins en moins de gens qui se soucieront de demander : « Mais est-ce intelligent ? »

Source : ZDNet.com

Cliquez ici pour lire l’article depuis sa source.

Laisser un commentaire