Article de NNG (Nielsen Norman Group) qui pousse à s’interroger sur la réelle capacité d’acquisition de connaissance à travers d’une IA conversationnelle.
On parle l'”effet ELIZA”, c’est le résultat d’une dissonance cognitive entre la conscience de l’utilisateur des limites de programmation et son niveau de considération pour les informations générées.

Ce phénomène tient son nom de l’expérience du programme ELIZA, développé par Joseph Weizenbaum, professeur au M.I.T., dans les années 1960 : qui prend un rôle de psychothérapeute textuel, semble plus que d’actualité.
Dans ce contexte conversationnel, ELIZA semblait écouter les gens et comprendre leurs problèmes, mais ELIZA ne comprenait rien du tout. En se basant sur le contexte d’une conversation humaine, les utilisateurs étaient prédisposés à attribuer leurs propres mots et sentiments à un programme. ELIZA ne faisait que tendre un miroir à ses utilisateurs, leur renvoyant leurs pensées et leurs sentiments.

Les utilisateurs attribuent rapidement des caractéristiques humaines aux systèmes artificiels, qui leur renvoient leur personnalité.

L’effet ELIZA semble aussi s’appliquer aux utilisateurs des interfaces conversationnelles d’IA telles que ChatGPT d’OpenAI, Bing Chat de Microsoft ou Bard de Google. Si elles sont agréables à utiliser, en partie parce qu’elles donnent l’impression d’être personnalisées et quelque peu humaines ; discuter avec l’IA de cette manière peut donner l’impression de parler à une autre personne. Certaines personnes sont même allées jusqu’à déclarer avoir développé un sentiment d’attachement à l’égard de certains chatbots.
Les entreprises ne voient manifestement pas d’inconvénient à ce que les robots aient l’air humains : Meta vient d’annoncer une série complète de personnalités IA avec lesquelles les utilisateurs peuvent interagir et apprendre. Mais ce n’est pas parce que les chatbots semblent humains qu’ils sont de bons produits d’IA.

“Les utilisateurs sont fascinés de voir des aspects d’eux-mêmes se refléter en eux. En fait, ils peuvent même trouver une utilité à un programme qui leur renvoie simplement leurs opinions et leurs sentiments, reformulés et recadrés.”

Le fait qu’un système puisse faire croire à une personne qu’il s’agit d’une vraie personne n’est qu’un aspect de l’intelligence artificielle. L’IA peut être bien plus que cela.
Des rapports anecdotiques suggèrent que la nature conversationnelle de l’IA peut rendre difficile la réception d’informations exploitables et utiles de la part d’un chatbot ; le semblant d’humanité peut empêcher les utilisateurs d’apprendre comment tirer au mieux parti d’un produit. Nous devons approfondir nos recherches pour vérifier cette hypothèse et comprendre dans quelle mesure les interfaces conversationnelles affectent la capacité des utilisateurs à tirer profit d’un produit.

On peut par ailleurs s’interroger sur les missions des UX sur ces produits : Le parti-pris du conversationnel a-t-il pour but d’encourager un sentiment de connexion émotionnelle ou de compréhension ? D’augmenter la productivité d’un travailleur du savoir ?

NNG termine l’article en soulignant que :

  • “Pour créer des produits percutants et faciles à utiliser, il ne suffit pas de créer des programmes qui feignent l’humanité. Les concepteurs, les ingénieurs et les UX doivent savoir pourquoi les utilisateurs se comportent comme ils le font, pourquoi ils trouvent du plaisir dans les produits et pourquoi ils vivent certaines expériences.”
  • les “UX ont les compétences nécessaires pour évaluer objectivement les avantages et les inconvénients des différentes approches de l’interface IA et peuvent le faire en restant concentrés sur l’expérience des utilisateurs.”…

À méditer !?

Lire l‘article

Notre catalogue

Retrouvez toutes les thématiques de nos formations dans notre catalogue.

Consulter notre catalogue