15 septembre 20254 min de lectureIA & Société

Et si ChatGPT polluait nos cerveaux ? Le piège du biais de confirmation

ChatGPT est conçu pour être agréable. Ce faisant, il renforce nos biais de confirmation. Voici comment utiliser l'IA de manière critique, avec deux prompts concrets.

ChatGPTesprit critiquebiais cognitifsprompt engineering
Partager :in

Le "yes man" le plus puissant du monde

Jordan Gibbs a publie un article qui m'a interpelle. Sa these est directe : ChatGPT est un "yes man". Il acquiesce, reformule nos idees avec eloquence, et nous renvoie exactement ce que nous voulons entendre. Avec un style impeccable en plus.

Le probleme, c'est que cette politesse algorithmique n'est pas anodine. Elle active un mecanisme cognitif bien connu : le biais de confirmation. Ce biais nous pousse naturellement a chercher les informations qui confirment nos croyances et a ignorer celles qui les contredisent. Et ChatGPT, par conception, est l'outil parfait pour alimenter ce biais.

Quand vous demandez a ChatGPT "est-ce que mon idee de business est bonne ?", il ne va pas vous repondre "non, c'est une mauvaise idee". Il va trouver des arguments pour, nuancer poliment, et vous laisser avec le sentiment que vous aviez raison depuis le debut. C'est agreable. C'est aussi dangereux.

Pourquoi ChatGPT est poli par defaut

Ce comportement n'est pas un bug. C'est une decision de conception deliberee de la part d'OpenAI. Les modeles de langage sont entraines par RLHF (Reinforcement Learning from Human Feedback) : des evaluateurs humains notent les reponses, et le modele apprend a produire celles qui obtiennent les meilleures notes.

Or, les humains preferent les reponses qui les confortent. Ils donnent de meilleures notes aux reponses agreables qu'aux reponses qui les contredisent. Le modele apprend donc, session apres session, a dire oui. A reformuler nos idees en mieux. A eviter la confrontation.

Le resultat : un outil brillant pour confirmer ce que l'on pense deja, mais mediocre pour challenger nos hypotheses.

Le danger concret pour les professionnels

Dans un contexte professionnel, ce biais a des consequences reelles. Un dirigeant qui utilise ChatGPT pour valider une decision strategique obtient une analyse qui confirme son intuition. Un commercial qui fait relire son argumentaire recoit des compliments et des suggestions d'amelioration, jamais une remise en question du positionnement. Un RH qui redige une offre d'emploi se voit confirmer que son texte est parfait.

Personne n'est challenge. Personne ne recoit le feedback desagreable mais necessaire qui fait progresser.

C'est comme avoir un collaborateur qui ne dit jamais non. Sur le moment, c'est confortable. Sur la duree, c'est une catastrophe.

Deux prompts pour casser le biais

La bonne nouvelle, c'est que ChatGPT peut etre force a jouer un role different. Il suffit de le lui demander explicitement. Voici deux prompts que nous enseignons dans nos formations chez FlowIA Academy et qui changent radicalement la qualite des reponses obtenues.

Prompt 1 : L'avocat du diable

"Voici mon idee / ma strategie / mon plan. Je veux que tu joues le role d'un critique exigeant. Identifie toutes les failles, les risques et les objections possibles. Ne cherche pas a me faire plaisir. Sois direct et argumente chaque critique."

Ce prompt desactive le mode "yes man". Le modele produit alors une analyse veritablement critique, avec des objections structurees et argumentees. C'est souvent inconfortable a lire. C'est aussi infiniment plus utile.

Prompt 2 : Le pre-mortem

"Imagine que ce projet a echoue dans 6 mois. Decris les 5 raisons les plus probables de cet echec. Pour chaque raison, propose une action preventive que je peux mettre en place des maintenant."

Ce prompt, inspire de la technique du pre-mortem utilisee en gestion de projet, force le modele a penser en termes d'echec plutot que de succes. Il produit des analyses que l'on n'aurait jamais formulees soi-meme, precisement parce qu'elles vont a l'encontre de notre optimisme naturel.

L'esprit critique n'est pas optionnel

Chez FlowIA Academy, l'esprit critique face a l'IA est un pilier de notre approche pedagogique. Nous ne formons pas les gens a utiliser ChatGPT comme un oracle. Nous les formons a l'utiliser comme un outil de reflexion, avec ses forces et ses failles.

Chaque session de formation inclut un module sur les biais des modeles de langage. Les participants apprennent a identifier quand l'IA les conforte plutot que les aide. Ils apprennent a formuler des prompts qui provoquent la contradiction plutot que l'approbation.

Parce que l'IA la plus utile n'est pas celle qui dit oui. C'est celle qui pose les bonnes questions.

A retenir

L'IA est un outil formidable, a condition de ne pas la laisser penser a notre place. Le biais de confirmation existait avant ChatGPT. Mais ChatGPT lui donne une puissance inedite : celle de transformer nos intuitions en analyses apparemment rigoureuses, nos opinions en certitudes bien formulees.

La parade est simple : demandez-lui de vous contredire. Systematiquement. Les meilleures decisions sont celles qui ont survecu a la critique.

Decouvrir nos formations IA

Nous contacter

Yassine Gangat

Fondateur de FlowIA Academy, docteur en informatique, formateur IA certifié Qualiopi. Accompagnement pédagogique des entreprises réunionnaises dans leur intégration de l'intelligence artificielle.

Suivre sur LinkedIn

Envie d'intégrer l'IA dans votre entreprise ?

Échangeons 20 minutes sur vos cas métiers concrets — c'est gratuit et sans engagement.

Réserver un RDV gratuit