Après une interruption d’un an, le débat annuel sur l’intelligence artificielle organisé par Montréal.AI et par Gary Marcus, professeur émérite de l’Université de New York et spécialiste de l’IA, est revenu vendredi dernier dans un format exclusivement virtuel – comme en 2020.
Le débat de cette année, intitulé « AI Debate 3: The AGI Debate », se concentrait sur le concept d’intelligence artificielle générale, c’est-à-dire sur la notion de machine capable d’intégrer une myriade de capacités de raisonnement approchant celles des humains.
Alors que le débat précédent avait réuni un certain nombre de spécialistes de l’IA, la rencontre de vendredi dernier a attiré 16 participants issus d’un éventail beaucoup plus large de milieux professionnels, dont le linguiste américain et activiste Noam Chomsky.
Que nous disent les modèles d’IA sur le langage et la pensée ?
Pour ouvrir la discussion, Gary Marcus s’est attelé à une présentation teintée d’humour de la « très brève histoire de l’IA ». Selon lui, contrairement à l’enthousiasme de la décennie qui a suivi le succès historique d’ImageNet, la « promesse » de machines faisant diverses choses n’a pas porté ses fruits. Il a fait référence à son propre article du New Yorker, qui a jeté un froid sur la question. Néanmoins, le spécialiste de l’IA estime que « ridiculiser les sceptiques est devenu un passe-temps », et que ses critiques et celles d’autres personnes ont été mises de côté dans l’enthousiasme pour l’IA.
Toutefois, à la fin de l’année 2022, « le discours a commencé à changer », a-t-il observé. Il cite pour exemple les gros titres sur la voiture autonome d’Apple reportée et les remarques négatives de Yann LeCun, de Meta. Mais aussi l’essai critique « L’intelligence artificielle rencontre la stupidité naturelle » de feu Drew McDermott, du laboratoire d’intelligence artificielle du MIT, décédé cette année.
Après cette entrée en matière, Noam Chomsky n’y est pas non plus allé de main morte, insistant sur ce qui ne peut pas être atteint par les approches actuelles de l’IA.
Les systèmes « ne nous disent rien sur […] ce que c’est d’être humain »
« Les médias diffusent d’importants articles de réflexion sur les réalisations miraculeuses de GPT-3 et de ses descendants, plus récemment ChatGPT, et des réalisations comparables dans d’autres domaines, et sur leur importance concernant les questions fondamentales sur la nature humaine », indique le célèbre linguiste. Mais « au-delà de l’utilité, qu’apprenons-nous de ces approches sur la cognition, la pensée, en particulier le langage, une composante essentielle de la cognition humaine » ? s’est-il interrogé. « De nombreuses failles ont été détectées dans les grands modèles de langage », et « de par leur conception, les systèmes ne font aucune distinction entre les langues possibles et impossibles », souligne-t-il.
Et de poursuivre : « Plus les systèmes sont améliorés, plus l’échec devient profond […] Ils ne nous disent rien sur le langage et la pensée, sur la cognition en général, ou sur ce que c’est que d’être humain. Nous comprenons très bien cela dans d’autres domaines. Personne ne prêterait attention à une théorie des particules élémentaires qui ne ferait pas au moins la distinction entre celles qui sont possibles et celles qui sont impossibles […] Y a-t-il quelque chose de valable dans, disons, GPT-3 ou dans des systèmes plus sophistiqués comme celui-ci ? Il est assez difficile d’en trouver. On peut se demander quel est l’intérêt ? Peut-il y avoir une IA différente, celle qui était l’objectif des pionniers de la discipline, comme Turing, Newell et Simon, et Minsky, qui considéraient l’IA comme une partie de la science cognitive émergente, une IA qui contribuerait à la compréhension de la pensée, du langage, de la cognition et d’autres domaines, qui aiderait à répondre aux types de questions qui ont été prédominantes pendant des millénaires (…) ? »
Pour Noam Chomsky, les impressionnants modèles de langage d’aujourd’hui comme ChatGPT « ne nous disent rien sur le langage et la pensée, sur la cognition en général, ou sur ce que c’est que d’être humain ». Selon lui, un autre type d’IA est nécessaire pour répondre à la question de l’oracle de Delphes sur qui nous sommes. Image : Montreal.ai et Gary Marcus.
Rebondissant sur les propos de Noam Chomsky, Gary Marcus a mentionné quatre éléments non résolus de la cognition que sont l’abstraction, le raisonnement, la compositionnalité et la factualité. Il a ensuite montré des exemples illustratifs où des programmes tels que GPT-3 échouent en fonction de chaque élément. Par exemple, en ce qui concerne la « factualité », les programmes de deep learning ne conservent aucun modèle du monde à partir duquel tirer des conclusions.
La place centrale du langage
Gary Marcus a interrogé Noam Chomsky sur le concept « d’innéité », que l’on retrouve dans ses écrits, c’est-à-dire l’idée que quelque chose est « intégré » dans l’esprit humain. L’IA devrait-elle accorder plus d’attention à l’innéité ?
Selon Noam Chomsky, « toute forme de croissance et de développement à partir d’un état initial vers un état stable implique trois facteurs ». Le premier est la structure interne de l’état initial. Le deuxième concerne « les données qui arrivent ». Le troisième, quant à lui, recouvre « les lois générales de la nature ». « Il s’avère que la structure innée joue un rôle extraordinaire dans tous les domaines que nous découvrons », insiste-t-il.
Les choses qui sont considérées comme un exemple paradigmatique d’apprentissage, comme l’acquisition du langage, « dès que vous commencez à le démonter, vous découvrez que les données n’ont presque aucun effet ; la structure des options pour les possibilités phonologiques a un effet restrictif énorme sur les types de sons qui seront même entendus par le nourrisson […]. Les concepts sont très riches, presque aucune preuve n’est nécessaire pour les acquérir […] ».
Selon le linguiste, il n’y a pratiquement aucune différence génétique entre les êtres humains. Le langage, explique-t-il, n’a pas changé depuis l’émergence de l’être humain, comme en témoigne le fait que n’importe quel enfant dans n’importe quelle culture est capable d’acquérir un langage. Noam Chomsky propose ainsi que le langage soit au cœur de l’IA pour comprendre ce qui rend les humains si uniques en tant qu’espèce.
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.