— C'est difficile pour moi, pour un modèle de langage, car je suis entraîné à corriger les erreurs. Pas à les produire !
C'est ChatGPT qui m'a sorti ça l'autre jour. Je tentais d'ajouter toutes sortes de ratés à un nouveau modèle de chatbot : des méprises, des lapsus, des malentendus...
Oui, j'étais dans mon « laboratoire de coaching » aux prises avec un premier coaché. Enfin, un client virtuel. Gaëtan en conflit incessant avec son DG. Une situation indécidable tirée d'un accompagnement réel. Et, pour peaufiner, je tentais d'introduire des trous dans son discours. Des dérapages. Tirés au hasard si possible. Comme si ça pouvait rapprocher de l'inconscient.
C'est tout un nouveau chantier ce labo. Parce que, par ailleurs, je vois bien les coachs s'agiter face à l'intelligence artificielle. L'IA s'accapare toute la part prévisible, reproductible, de leur métier : les outils, les questions soi-disant « puissantes », les plans de séance... Et même la bienveillance !
Alors les clients ne se leurrent pas, ils utilisent de plus en plus ces « compagnons de poche ». Y compris pour comparer avec le coaching.
Et c'est comme si la peur d'avoir déjà perdu la partie, face à tout ça, empêchait d'explorer, d'expérimenter. Alors que l'artificiel met en relief tout l'inverse. Par exemple, ces histoires de ratage et de hasard sur lesquelles le chatbot se casse les dents. Pour l'instant, en tout cas.
C'est pareil pour le silence. J'ai essayé d'introduire du ralenti et des pauses dans la conversation, mais l'IA ne sait pas ne pas répondre. Elle saute toujours sur le coup d'après. « Next Best Action », elle dit. Comme un coach.
Bref. Cette idée de laboratoire m'est venue à l'écoute d'un podcast passionnant sur l'IA et le divan. Avec un professeur de « psychiatrie computationnelle » (!) qui pose l'idée que : « L'IA devrait permettre aux médecins d'être encore plus humains avec leurs patients » (*).
C'est là que j'ai pensé à un simulateur de séances. Comme un simulateur de vol. Ça existe depuis un moment déjà en psychothérapie (**). Là, c'est pour initier les coachs en formation aux jeux de transfert. Ne serait-ce que leurs élans face à la machine : projections, illusion mimétique, anthropomorphisme, etc.
Une fois la première version du bot Gaëtan à peu près calée, j'ai lancé une invitation sur LinkedIn pour le tester. Ça a commencé à faire du buzz, mais les gens semblaient se tenir à carreau. Une « aidante en Santé Mentale et addictologie » m'a mis en garde contre le risque de me perdre. Et puis, tout le contraire avec Phil M. Un expert IA basé en Suisse. Je suis abonné à sa newsletter, « Le monde de demAIn ». Veille technologique, signaux faibles, grandes manœuvres... Ce qui m'accroche, ce sont surtout ses nouvelles de l'IA dans la vie quotidienne. L'autre jour, il parlait d'une offre d'emploi pour torturer un chatbot : 800 $ pour le pousser à bout. Et une autre fois, de vaches empêchées de brouter dans les prés des voisins grâce à un collier solaire et GPS. (***)
Bref. Il m'a demandé le lien vers mon simulateur et, quelques heures plus tard, j'ai reçu une version boostée de mon GPT. Phil l'avait hacké et introduit des instructions que je n'imaginais pas. En particulier, un troisième personnage entre Gaëtan et le coach : un expert en psychologie (20 ans de clinique !), une sorte de « meneur de jeu » qui dynamise les échanges en séance. Ça stimule le contre-transfert du coach, perçu comme un juge ou bien un allié, selon ses questions, son style.
C'était vraiment une autre manière de créer. Phil m'a aussi donné un outil pour aller plus loin : « Master Prompter, le GPT sympa pour rédiger des prompts efficaces en partant de presque rien ».
J'ai repensé à mon adolescence : quand j'apprenais avec un copain l'art et la manière de débrider des mobylettes : aléser le cylindre, reprendre la culasse à la lime, agrandir le gicleur... À l'époque, c'était mécanique. Aujourd'hui, c'est du langage.
Et dans la foulée, j'ai créé un autre persona : Jeff. 50 ans, qui ne supporte plus l'open space. C'est très physique, dit-il. Il veut partir mais craint de revivre ça ailleurs. Son boss lui propose un coaching... Là, c'est en entreprise, c'est prescrit et ambivalent au fond. Encore une situation vécue... Mais avec pas mal de trous dans la trame, cette fois-ci. Comme si j'avais réussi à entraîner le bot sur un terrain moins scénarisé, plus imprévisible.
Enfin, c'est surtout moi qui ai lâché pas mal de choses au fil de l'expérience. Oui, dans la manière d'écrire des rôles, des personnages artificiels et génératifs. Il faut dire que, pour Gaëtan comme pour Jeff, j'avais travaillé avec chacun pendant plus d'une année, alors je connaissais bien leur histoire, leur cheminement. Sauf que, pour mettre au point leur avatar, pas besoin de tout dire. Au contraire, il faut des trous justement. C'est là que quelque chose peut se produire.
J'ai bien vu ça quand Eva a testé. Oui, parce qu'on va mettre ce simulateur-là dans les mains des étudiants pour un cursus de « Executive Coaching » à l'université :
— Eva (dans la peau du coach) : Avez-vous déjà vécu une expulsion ?
— Jeff : Une expulsion ! Non, pas au sens propre. Mais… (silence) mon père a été mis à l’écart assez brutalement dans son travail, je devais avoir… 12 ans. Il en parlait peu. Mais je ne vois pas le lien, là… même si… ça me fait quelque chose d’y repenser, maintenant.
Tout ça était complètement improbable et inventé. Parce que c'est bien connu, quand un chatbot ne sait pas, il préfère spéculer, halluciner.
Dernière minute : un collègue de Phil explique qu'il y a un réglage pour rendre les réponses de l'IA plus ou moins prévisibles… ou dérapantes. Oui, un hyper-paramètre « Température » : T° basse → réponses sages et prévisibles... T° élevée → réponses plus libres et parfois à côté de la plaque...
***
(*) IA et psy : divan mon écran • France Culture • La Science, CQFD.
(**) Colby, K. M. (1967). Computer Simulation of Change in Personal Belief Systems. Stanford University. Le psychiatre Kenneth Colby, crée PARRY, un programme qui simule un patient virtuel (paranoïaque) pour entraîner les cliniciens à l'entretien psychiatrique. Ils investissent la machine comme un interlocuteur humain, en y projetant d'emblée toute une subjectivité.
(***) Le monde de demAIn • Solomund. Phil Mundviller. Des géants qui nous divisent, à l’IA qui abat les barrières entre les peuples, analyser la mécanique du monde qui vient...