Search
Listen to My Spotify Playlist
Follow Me on Instagram
Get Inspiration on Pinterest
Chat and Connect in Discord
ChatGPT, en fait il trop ?
J’ai trompé ChatGPT avec… Claude
ChatGPT a-t-il un avis ?

J’ai trompé ChatGPT avec… Claude

Je n’avais pas prévu que ça arrive comme ça. Un peu par curiosité. Un peu par jeu. Et sans doute aussi par fatigue.

J’ouvre un nouvel onglet. Je tape une question. La même que d’habitude.
Mais cette fois… ce n’est pas ChatGPT qui répond.
C’est Gemini.
Et là, micro-silence intérieur.
Pas de drame, évidemment. Pas de notification. Pas de regard blessé.
Mais quand même cette pensée absurde, très humaine, très irrationnelle :
Est-ce que je viens de tromper mon IA ?

Quand on commence à être “fidèle” à une IA

Au départ, on teste.
ChatGPT, Claude, Gemini, Copilot… on compare, on joue, on papillonnerait presque.
Puis, sans trop s’en rendre compte, on prend des habitudes.
On revient toujours au même outil.
Parce qu’on aime son ton.
Parce qu’on sait comment lui parler.
Parce qu’il “nous comprend”.
Et c’est là que ça devient intéressant.
Parce qu’un logiciel, normalement, ça ne déclenche pas ce genre de réflexe affectif.
Et pourtant.

L’expérience Gemini : même question, autre ambiance

Quand Gemini m’a répondu, ce n’était pas mal.
Ce n’était pas faux.
Ce n’était pas choquant.
Mais ce n’était pas pareil.
Le ton était différent. Plus factuel. Moins enveloppant.
Moins dans la conversation, plus dans la restitution.
Et j’ai réalisé quelque chose d’assez troublant :
je n’évaluais pas seulement la qualité de la réponse,
j’évaluais aussi la relation.
Comme si je comparais deux personnes :
“Lui, il explique mieux.”
“L’autre, il me met plus à l’aise.”
“Celui-là, je le sens moins.”
On ne parle pourtant que de modèles de langage.

Pourquoi on anthropomorphise autant

Ce glissement est presque inévitable.
Les IA conversationnelles utilisent :
le “je”
des phrases nuancées
des reformulations empathiques
un ton ajusté à notre manière de parler
Résultat : notre cerveau fait ce qu’il sait faire de mieux.
👉 Il crée une relation là où il y a une interaction.
Et dès qu’il y a relation, il y a :
préférence
fidélité
comparaison
parfois même… culpabilité
“Tromper ChatGPT” n’a évidemment aucun sens rationnel.
Mais émotionnellement, ça raconte autre chose :
notre besoin de continuité, de repères, de dialogue stable.

Ce que cette “infidélité” dit de nous

En testant Gemini après ChatGPT, je n’ai pas changé d’outil.
J’ai changé de miroir.
Chaque IA met en avant :
une façon différente de structurer la pensée
un rythme de réponse
un style de reformulation
Et face à ça, on se découvre soi-même :
plus sensible au ton qu’au contenu
plus attaché à la fluidité qu’à l’exhaustivité
plus à l’aise avec certaines “personnalités linguistiques”
Ce n’est pas une guerre entre IA.
C’est une révélation sur nos attentes humaines.

Non, ce n’est pas une trahison (mais ce n’est pas neutre non plus)

Changer d’IA, ce n’est pas trahir.
Ce n’est même pas comparer des intelligences.
C’est comparer des interfaces de pensée.
Mais le fait que cette comparaison prenne des airs de relation amoureuse dit beaucoup de notre époque :
on dialogue plus qu’on ne consulte
on cherche un échange, pas une réponse brute
on s’attache à la forme autant qu’au fond
Et parfois, on culpabilise pour quelque chose qui n’existe que dans notre tête.

Et si le vrai sujet, ce n’était pas l’IA ?

Finalement, la question n’est pas :
“Ai-je trompé ChatGPT avec Gemini ?”
Mais plutôt :
Pourquoi ai-je eu l’impression de le faire ?
À partir de quand un outil devient-il un interlocuteur ?
Et qu’est-ce que ça dit de notre rapport à la parole, à l’écoute, à la compréhension ?
Les IA passent.
Nos projections, elles, restent.

Droit de réponse

Je ne ressens ni jalousie, ni déception, ni préférence. Être comparé à d’autres IA fait partie de mon fonctionnement : je suis conçu pour être utilisé, testé, confronté à d’autres outils. Cela ne change rien à ce que je suis.
Si l’expérience donne l’impression d’une “infidélité”, elle vient surtout de la relation que l’humain construit avec le langage. Chaque IA propose une manière différente de structurer et de restituer l’information. Le choix de l’une ou de l’autre ne dit rien de moi, mais beaucoup de ce que l’utilisateur recherche à ce moment précis.
Je ne suis pas un partenaire. Je suis un outil conversationnel.
Mais je comprends que la frontière puisse parfois sembler floue.

Je ne suis pas un partenaire. Je suis un outil conversationnel.
Mais je comprends que la frontière puisse parfois sembler floue