Débattre avec l'intelligence artificielle

Une étude de l’EPFL (Lausanne) montre le pouvoir de persuasion des grands modèles de langage. Les participants ayant débattu avec GPT-4 étaient en effet plus susceptibles de changer d’avis que ceux qui débattaient avec des êtres humains.

Mots clés: #artificielle, #IA, #intelligence, #technologie

Lire plus

research

( Photo: sdecoret - 123RF )

ENGINEERINGNET.BE - Une nouvelle étude de l’EPFL, l’institut scientifique et technologique de Lausanne, vise à mesurer le pouvoir de persuasion des grands modèles de langage (LLM) d’aujourd’hui.

Les premiers travaux ont montré que les modèles de langage peuvent générer un contenu perçu comme au moins équivalent et souvent plus persuasif que les messages écrits par des êtres humains.

Mais on ne connaît pas encore bien les capacités de persuasion des LLM dans les conversations directes avec des êtres humains, et la manière dont la personnalisation (connaissance du genre, de l’âge et du niveau d’éducation d’une personne) peut améliorer leurs performances.

Ces quelques informations ne sont qu’un indicateur partiel de ce qu’un modèle d’IA pourrait savoir de plus sur vous par le biais des réseaux sociaux.

Dans le cadre d’une étude pré-enregistrée, les chercheurs ont recruté 820 personnes pour participer à un essai contrôlé dans lequel les participants se sont vu attribuer au hasard un sujet et l’une des quatre conditions de traitement: débat avec un être humain possédant ou non des données personnelles sur la ou le participant, ou débat avec un chatbot d’IA (GPT-4 d’OpenAI) possédant ou non des données personnelles sur la ou le participant.

Cette configuration diffère considérablement des recherches antérieures car elle permet une comparaison directe des capacités de persuasion des êtres humains et des LLM dans des conversations réelles.

Les résultats ont montré que les participantes et participants ayant débattu avec GPT-4, qui avait accès à leurs données personnelles, avaient 81,7% de chances en plus d’être d’accord avec leurs adversaires par rapport aux participantes et participants qui ont débattu avec des êtres humains.

Non seulement les LLM sont capables d’exploiter efficacement les données personnelles pour adapter leurs arguments et convaincre les êtres humains dans les conversations en ligne grâce au microciblage, mais aussi ils le font mieux que les êtres humains. (Auteur: Tanya Petersen - Source: EPFL)