ChatGPT a fait le buzz depuis novembre 2022, et les IA génératives semblent envahir peu à peu notre quotidien (enfin, le quotidien des “early adopters”, car le taux d’adoption de ces technologies après un an d’existence n’en font pas encore des outils aussi universels que les smartphones par exemple, loin de là).

Sauf que tous les spécialistes des sujets autour de l’IA vous diront deux choses:

  • on demande trop souvent aux IA génératives actuelles d’effectuer des tâches pour lesquelles elles n’ont pas été conçues et qu’elles ne parviendront jamais à faire. Ce qui engendre de nombreux “fails” et un usage plutôt déceptif à la longue
  • les IA deviendront vraiment utiles quand elles sauront gérer correctement la “planification” et les “chaines de pensée”, bref ce qui sert à prendre des décisions pertinentes et raisonner correctement
  • la future génération d’IA est déjà dans les tuyaux et devrait sortir d’ici un ou deux ans, Gemini et Q* étant les premiers outils à gratter la surface de ces nouvelles approches.

Mais commençons par expliquer pourquoi les IA génératives actuelles ont un défaut majeur de conception qui les condamne à moyen terme. 

Nota bene : Les IA abordées dans cet article sont des IA génératives textuelles, éventuellement multimodales, pas les IA génératives capable de produire des images et des vidéos.

 Pour aller plus loin :

➜ Découvrez la formation SGE par Vincent Terrasi

➜ Découvrez la formation ChatGPT par Baptiste Guiraud

 

Les IA génératives textuelles actuelles ont du mal avec les tâches qui demandent de savoir raisonner

Les IA génératives textuelles utilisent des modèles de langue dernière génération, qui sont capables de prédire avec précision quel terme est le plus probable après un autre dans un contexte donné. 

Cela permet de créer des outils capables de rédiger des textes à la syntaxe et à l’orthographe parfaite, dans le style que vous vous voulez.

Lorsque le modèle est un LLM (un Large Language Model) comme dans ChatGPT d’Open AI ou dans Palm de Google, il s’avère que le modèle est capable de régénérer des contenus sur un thème précis en régurgitant les informations qui ont servi à entraîner le modèle. Bref, l’IA semble capable de répondre à des questions !

C’était la bonne surprise des chercheurs d ’OpenAI lorsqu’ils ont sorti la version 3 de leur modèle GPT: au delà d’un certain nombre de paramètres et d’une certaine quantité de données ingérées, le résultat est un modèle qui semble “savoir” une foule de détails sur un grand nombre de sujets. Il suffit de rajouter une interface pour interroger le modèle en mode conversationnel et on a obtenu ChatGPT.

Sauf que lorsqu’on lui demande une information qui ne figure que dans une ou deux pages sur tout le corpus digéré dans le LLM, les chances d’obtenir une information fausse assénée avec une grande conviction par l’IA deviennent très grandes

Les IA génératives ne “savent” pas des choses sur le monde réel, elles ne font que restituer des chaînes de termes qui leur semblent probables.

Et c’est tout le danger des IA actuelles: quand on leur demande des infos sur des sujets de Culture générale ou sur lesquels les sources abondent, cela fonctionne plutôt bien. Mais dès qu’on veut utiliser leurs compétences sur des sujets plus pointus, c’est la catastrophe.

Certes les modèles ont progressé, mais on ne peut toujours pas leur faire confiance.

Par exemple, cette question à ChatGPT 4 il y a quelques mois générait un beau fail !

La suite de cet article est réservée aux abonnés.

 

Philippe Yonnet
CEO du groupe Neper et de Know Y