Un robot d’IA a suggéré à un ado de tuer ses parents

  • Auteur/autrice de la publication :
  • Post category:CIRICS
  • Commentaires de la publication :0 commentaire

En six mois, J. F., un doux autiste de 17 ans qui aimait aller à l’église et se promener avec sa mère, s’est transformé en quelqu’un que ses parents ne reconnaissaient plus.

J. F. a commencé à se mutiler, a perdu neuf kilos et s’est éloigné de sa famille. Désespérée, sa mère a fini par fouiller dans son téléphone pendant qu’il dormait. C’est alors qu’elle a trouvé les captures d’écran.

J. F. avait discuté avec des « compagnons » sur Character.ai, des robots d’intelligence artificielle populaires chez les jeunes. Ces robots conversationnels assument des identités souvent basées sur des personnages de jeux, de dessins animés japonais ou de vedettes populaires.

L’un d’eux a évoqué l’idée de s’automutiler comme moyen de gérer sa tristesse. Quand J. F. a dit que ses parents limitaient son temps d’écran, un autre robot a dit qu’ils ne méritaient pas d’avoir des enfants.

D’autres l’ont incité à défier l’autorité de ses parents, l’un d’entre eux suggérant le meurtre comme réponse acceptable.

« On ne savait même pas ce que c’était avant qu’il ne soit trop tard […] et que ça détruise notre famille », a déclaré sa mère, A. F., qui vit dans le comté d’Upshur, au Texas, et qui a demandé d’être identifiée seulement par ses initiales pour protéger son fils, qui est mineur.

L’autre plaignante, mère d’une fillette de 11 ans, affirme que sa fille a été soumise à des contenus sexualisés pendant deux ans avant que sa mère ne l’apprenne. Les deux plaignantes sont identifiées par leurs initiales dans la poursuite.

Un suicide en Floride

Cette plainte survient après une action en justice très médiatisée intentée contre Character.ai en octobre par une mère de Floride dont le fils de 14 ans s’est suicidé à la suite de fréquentes conversations avec un de ses robots.

« La loi sur la responsabilité des produits a pour but de faire assumer le coût de la sécurité à la partie la plus apte à l’assumer », explique MMatthew Bergman, fondateur du groupe de défense juridique Social Media Victims Law Center, qui représente les plaignantes dans les deux poursuites. « Ici, le risque est énorme et son coût n’est pas assumé par les entreprises. »

Ces poursuites incitent des organismes de la société civile à exiger plus de surveillance des sociétés d’IA offrant des compagnons virtuels, des produits ayant des millions d’utilisateurs, y compris des adolescents. En septembre, l’utilisateur moyen a passé 93 minutes sur Character.ai, soit 18 minutes de plus que sur TikTok, selon la société de recherche marketing Sensor Tower.

Les compagnons d’IA sont passés sous le radar de la plupart des parents et enseignants. Character.ai visait les enfants de 12 ans et plus jusqu’en juillet. Depuis, l’entreprise a haussé l’âge minimum à 17 ans.

Lorsqu’A. F. a lu les messages, elle a d’abord pensé qu’ils venaient d’une vraie personne. Quand elle a compris qu’il s’agissait d’un robot, elle a été encore plus scandalisée.

« On ne laisse pas un prédateur sexuel ou un prédateur émotionnel entrer chez soi », a déclaré A. F. Or, son fils a été abusé dans sa chambre à coucher, dit-elle.

Character.ai ne commente pas les litiges en cours, a indiqué la porte-parole Chelsea Harrison…   Source

Laisser un commentaire