Mon étude de l’article Role Play with Large Language Models de Shanahan et al. s’est effectuée dans un contexte où j’étais moi-même dirigée par l’IA générative, absorbée par son efficacité et dépendante de ses réponses générées. Ce texte explore ma perception de l’IA, une vision principalement forgée par cette lecture qui m’a permis de réaliser que j’interagissais avec un simulateur plutôt qu’avec une entité consciente.

Le piège de la conversation humaine

L’avènement des grands modèles de langage (Large Language Models, LLM) a provoqué une rupture fondamentale dans notre interaction avec le numérique. En introduisant une interface conversationnelle d’une fluidité sans précédent, ces technologies nous donnent l’illusion de dialoguer avec une forme de pensée. Comprendre la nature profonde de ces outils n’est pas seulement un enjeu technique, mais une nécessité stratégique pour déjouer les biais d’interprétation.

Le paradoxe de cette interface réside dans sa perfection même. La capacité des LLM à produire un langage humain cohérent et contextuellement pertinent nous incite, presque instinctivement, à leur attribuer une intention, une conscience ou une compréhension: c’est l’antropomorphisme.

Cette tendance n’est pas nouvelle et trouve un écho dans ce que l’on nomme l’Effet ELIZA. Dès 1964,Joseph Weizenbaum crée un programme informatique rudimentaire nommé ELIZA, qui mimait un psychothérapeute en reformulant simplement les phrases de ses interlocuteurs, a suffi à convaincre de nombreux utilisateurs qu’ils interagissaient avec une entité intelligente et empathique. Cet effet révèle notre profonde prédisposition à humaniser les machines qui manient le langage, projetant du sens là où il n’y a qu’une manipulation de symboles.

Pourtant, la réalité technique qui sous-tend ces systèmes est radicalement différente de l’expérience humaine. Prenons le temps de comprendre le plus important: la différence entre un humain et un LLM, pour en saisir l’altérité:

  • Humain : Le langage est un système de signes qui lie la forme au sens. Il est ancré dans une expérience incarnée (physique, sociale, émotionnelle) du monde et sert à communiquer une intention. Enfaite, l’humain apprends des autres humains tout au long de sa vie, gr^ce aux experiences et interactions avec les autres.

  • LLM : Il s’agit d’un “réseau de neurones désincarné” dont l’unique objectif est de prédire statistiquement le prochain “token” (un mot ou un fragment de mot) à partir d’un immense corpus de textes. Ces système s’entraînes sur un nombre infini de textes généré par l’humain, mais il reste probabiliste.

Pour déjouer cette illusion conversationnelle, je propose de nous interesser à deux cadres de pensée philosophiques et cognitifs qui ont, bien avant l’ère numérique, exploré la distinction critique entre la simulation de l’intelligence et sa réalité.

Cadres de pensée pour déconstruire l’illusion

Bien avant l’émergence des LLM modernes, des penseurs comme le philosophe John Searle et le psychologue Daniel Kahneman nous ont fourni des outils conceptuels puissants pour distinguer l’apparence de l’intelligence de son fonctionnement réel. Leurs cadres nous aident à cerner les limites fondamentales des LLM et à ne pas être dupes de leurs performances.

L’argument de la “Chambre Chinoise”

L’expérience de pensée de la “Chambre Chinoise”, proposée par John Searle, offre une analogie saisissante. Imaginez un homme enfermé dans une pièce, ne parlant pas un mot de chinois. On lui passe des fiches avec des symboles chinois (des questions) et il dispose d’un énorme manuel de règles en anglais qui lui indique quels symboles chinois il doit renvoyer en réponse. De l’extérieur, ses réponses sont parfaites et indiscernables de celles d’un locuteur natif. Pourtant, à l’intérieur, l’homme n’a jamais compris le moindre mot de chinois.

Le LLM est cet homme dans la chambre. Il exécute des instructions à une vitesse et une échelle prodigieuses, manipulant la syntaxe (la structure et les symboles du langage) avec une maîtrise parfaite. Cependant, il n’accède jamais à la sémantique (le sens réel, l’intention derrière les mots). Il n’y a aucune “compréhension” derrière le processus, seulement une corrélation statistique extraordinairement sophistiquée.

Le modèle des deux systèmes de la pensée

Le modèle de Daniel Kahneman, qui distingue deux modes de pensée, est également éclairant.

  • Le Système 1 est notre pensée rapide, automatique, intuitive et statistique. C’est lui qui nous permet de reconnaître un visage ou de réagir instinctivement à un bruit. Il fonctionne sans effort, en se basant sur des associations et des patrons.
  • Le Système 2 est notre pensée lente, délibérative, logique et analytique. Il est mobilisé pour résoudre un problème mathématique complexe ou analyser un argument. Il requiert de la concentration et un effort conscient.

Dans ce cadre, un LLM peut être vu comme un Système 1 surpuissant. Il excelle dans la reconnaissance de patrons statistiques à une échelle massive. Il donne l’illusion de posséder un Système 2, car il a ingéré d’innombrables exemples de raisonnements logiques dans ses données d’entraînement. Cependant, il ne fait qu’imiter ces patrons de raisonnement sans jamais réellement “raisonner” de manière délibérative. Sa “logique” est une performance statistique, pas une déduction consciente.

Ces expemples nous arment intellectuellement contre l’illusion, mais une métaphore intéressante qui me vient direct de l’article de Murray Shanahan et al a l’air d’être une bonne alternative pour le grand publique.

Vers une nouvelle métaphore : Le Jeu de Rôle

Pour dépasser la simple critique et développer une relation productive avec les LLM, il faut adopter une métaphore qui respecte leur “altérité” fondamentale, comme le propose le chercheur Murray Shanahan. L’enjeu est de construire un modèle mental qui soit à la fois techniquement juste et pratiquement utile, nous permettant de collaborer avec l’outil sans tomber dans le piège de l’anthropomorphisme.

Le LLM comme simulateur de personnages

La thèse centrale de Shanahan est de ne plus voir le LLM comme un “penseur” ou un interlocuteur, mais comme un formidable simulateur. Il le décrit comme un “simulateur non-déterministe capable d’incarner une infinité de personnages” ou, pour le dire autrement, de générer des simulacres. L’idée est que le LLM ne “pense” pas, il “incarne”. Il ne possède pas de personnalité propre, mais il est capable de simuler n’importe quelle personnalité plausible à partir des textes qu’il a appris.

“Pour mieux refléter cette propriété distributionnelle, nous pouvons penser à un LLM comme un simulateur non déterministe capable d’incarner une infinité de personnages, ou, pour le dire autrement, capable de générer stochastiquement une infinité de simulacres.” — Murray Shanahan

Cette métaphore introduit une distinction cruciale entre le simulateur et ses simulacres. Le simulateur (le LLM de base) est une entité purement passive ; il n’a ni agenda, ni croyances, ni objectifs propres, même simulés. Les simulacres, en revanche, sont les personnages générés lors de l’interaction. Ce sont eux qui, à travers leur performance textuelle, peuvent sembler avoir des objectifs, des préférences et une forme d’agentivité. Le simulateur contient des multitudes, mais il est lui-même dépourvu de toute intention.

L’acteur de théâtre d’improvisation

L’analogie la plus parlante est celle de l’acteur de théâtre d’improvisation (je pense aussi aux stand-up). Contrairement à un acteur qui étudie un rôle défini à l’avance, un improvisateur performe son personnage en temps réel, en se basant sur les suggestions du public.

De la même manière, le LLM ne choisit pas une personnalité à l’avance. Ce sont nos “prompts” – nos questions et instructions – qui agissent comme les indices qui orientent sa performance. Chaque prompt le pousse à endosser un rôle spécifique : expert en physique quantique, poète du XIXe siècle, assistant administratif concis, etc. Il joue ces rôles avec une conviction stupéfiante, mais sans jamais être ce qu’il joue. Il n’y a “personne à la maison” derrière le masque.

Cette métaphore du jeu de rôle, en plus d’être plus juste sur le plan conceptuel, nous transforme en de meilleurs “metteurs en scène”, capables de guider la performance de l’outil pour obtenir précisément le résultat que nous désirons.

Conclusion : Le miroir de l’intelligence humaine

Ce que je veux faire comprendre avec le Jeu de Rôle ou kes autres métaphore évoquées, c’est qu’il ne faut pas confondre un simulateur à la réalité. La notion du “Jeu de role explique bien qu’en tant que simulateur entraîné sur la quasi-totalité du savoir humain textuel, le LLM agit comme un miroir. Il ne pense pas par lui-même, mais nous renvoie des réarrangements statistiques de notre propre intelligence collective.

Cependant, comme le souligne l’analyse des “perroquets stochastiques”, ce miroir est déformant. Il ne se contente pas de refléter nos savoirs et nos récits ; il sur-représente et amplifie les points de vue hégémoniques présents dans ses données d’entraînement, avec le risque de marginaliser davantage les populations déjà en marge. Interagir avec lui, c’est dialoguer avec une version probabiliste, biaisée et amplifiée de notre civilisation textuelle.

Changer notre perspective de la “conversation” au “jeu de rôle” procure deux avantages clés :

  • Efficacité : En pensant en termes de “rôles” à assigner et de “prompts” à rédiger, nous devenons des utilisateurs plus compétents. Nous cessons de subir la conversation pour la diriger, transformant l’outil en un partenaire créatif et productif que nous pouvons guider avec précision.
  • Lucidité : Cette approche nous maintient constamment conscients de l’absence de “moi”, d’intention ou de conscience derrière l’interface. Elle nous protège du piège de l’anthropomorphisme, nous évitant de projeter des émotions ou une compréhension là où il n’y a qu’une simulation sophistiquée.

À nous de jouer le rôle d’utilisateur conscient des limites de l’outils pour passer plus de temps sur ce qui compte vraiment et dépasser les biais cognitifs.