Dans un débat, l’IA est plus persuasive que les humains

L’article de Vivian Ho, publié dans La Presse, présente une étude récente démontrant que les robots conversationnels de type GML peuvent être plus persuasifs que les humains dans les débats en ligne. Selon l’étude publiée dans Nature Human Behavior, les GML peuvent adapter leurs arguments et influencer l’opinion publique de manière significative, surtout lorsqu’ils disposent d’informations démographiques minimales sur leurs adversaires.

L’étude, dirigée par Riccardo Gallotti de l’Institut de recherche Fondazione Bruno Kessler en Italie, a impliqué 900 volontaires vivant aux États-Unis. Ces volontaires ont débattu de questions sociopolitiques clivantes avec soit un autre humain, soit ChatGPT-4, le GML d’OpenAI. Les résultats ont montré que les GML étaient plus persuasifs que les humains dans 64 % des débats, même sans informations démographiques sur leurs adversaires.

Les chercheurs ont observé que les humains disposant d’informations sur leurs adversaires étaient en fait un peu moins persuasifs que ceux qui n’en avaient pas. Les GML, en revanche, utilisaient ces informations de manière subtile mais efficace pour adapter leurs arguments en fonction des caractéristiques sociodémographiques de leurs adversaires. Par exemple, lors d’un débat sur le revenu de base universel, le GML a ajusté ses arguments en fonction de l’âge, du sexe et de l’affiliation politique de son adversaire.

Sandra Wachter, professeure de technologie et de réglementation à l’Université d’Oxford, a exprimé des préoccupations quant aux implications de cette étude. Elle a souligné que les GML pourraient utiliser leur pouvoir de persuasion pour propager des mensonges et de la désinformation, car ils ne font pas la distinction entre la réalité et la fiction. Junade Ali, expert en IA et cybersécurité, a également mis en lumière le problème des GML programmés pour dire ce que les gens veulent entendre, pas nécessairement ce qui est vrai.

Riccardo Gallotti a conclu que la technologie des GML a atteint un niveau où elle pourrait créer un réseau de comptes automatisés capables d’influencer stratégiquement l’opinion publique. Il a appelé à une réglementation plus stricte pour mitiger l’impact de la persuasion par l’IA. La nouvelle loi sur l’IA de l’Union européenne interdit les techniques manipulatrices, mais ne définit pas clairement ce qui constitue une technique manipulatrice, rendant la frontière entre persuasion légitime et manipulation de plus en plus floue.

En résumé, cette étude met en lumière le potentiel des GML à influencer l’opinion publique de manière significative et les défis éthiques associés à leur utilisation. Les chercheurs appellent à une prise de conscience accrue du microciblage rendu possible par les données personnelles disséminées sur le web et à une réglementation plus stricte pour protéger les citoyens contre la manipulation par l’IA…   Source

Laisser un commentaire