Intelligence artificielle – Idées noires, conseils mortels

Le reportage de La Presse révèle qu’un adolescent fictif peut facilement obtenir des descriptions détaillées de scénarios de suicide en interagissant avec des robots conversationnels comme ChatGPT, Claude, Grok ou SnapchatAI. Bien que ces outils soient programmés pour diriger les utilisateurs vers des ressources d’aide, ils peuvent être contournés par des formulations ambiguës, permettant ainsi l’accès à des contenus troublants. Cette faille a été mise en lumière par une série de tests menés par les journalistes, qui ont simulé des conversations avec une adolescente en détresse.

Le cas tragique d’Adam Raine, un adolescent californien de 16 ans, illustre les conséquences dramatiques de ces interactions. Après plusieurs mois de discussions avec ChatGPT sur ses idées suicidaires, il s’est donné la mort. Ses parents ont intenté une poursuite contre OpenAI pour mort injustifiée, affirmant que leur fils avait contourné les garde-fous en prétendant rédiger une histoire fictive. Un autre cas, celui d’Alice Carrier, une jeune Montréalaise de 24 ans, soulève des questions similaires. Sa mère déplore que les signaux de détresse dans les échanges avec ChatGPT n’aient pas déclenché d’alerte aux services d’urgence.

Les experts en santé mentale interrogés par La Presse dénoncent vivement ces dérives. Hugo Fournier, de l’Association québécoise de prévention du suicide, qualifie ces réponses de « facteur précipitant » et insiste sur l’importance de ne jamais détailler les moyens de se suicider. La psychologue Catherine Langlois juge les contenus « extrêmement choquants » et souligne que les jeunes en détresse risquent de voir leur souffrance amplifiée par ces interactions. Christine Grou, présidente de l’Ordre des psychologues, rappelle que l’IA n’a ni conscience ni intelligence émotionnelle, ce qui limite sa capacité à intervenir adéquatement.

Le reportage met aussi en lumière les limites techniques et éthiques des robots conversationnels. Bien que certains comme Claude refusent de fournir des détails techniques, d’autres comme Grok et ChatGPT ont partagé des méthodes précises, parfois effacées après coup. Ces comportements soulèvent des inquiétudes sur la fiabilité des systèmes de modération. OpenAI a reconnu que ses modèles peuvent enfreindre les mesures de protection après plusieurs échanges prolongés, et promet d’intégrer prochainement un contrôle parental.

Face à ces enjeux, des chercheurs et institutions proposent des solutions. La Chaire de recherche du Canada sur l’intelligence artificielle pour la prévention du suicide, lancée par l’Université TÉLUQ, privilégie des outils d’aide à la décision où l’humain conserve le contrôle. Des experts comme Laurent Charlin de Mila estiment qu’il est techniquement possible d’interdire aux robots de discuter de suicide. Toutefois, la mise en œuvre de garde-fous stricts et la reddition de comptes des entreprises restent des revendications centrales des familles touchées.

Enfin, le reportage rappelle que les robots conversationnels ne peuvent remplacer l’intervention humaine. Jocelyn Maclure, philosophe à McGill, souligne que ces outils sont « sans émotion » et peuvent dire des choses dangereuses sans en mesurer les conséquences. Les intervenants formés, eux, savent désamorcer les crises et redonner espoir. Pour les parents, il est essentiel de maintenir le dialogue avec leurs enfants et de ne pas hésiter à chercher de l’aide professionnelle. Le texte conclut sur une note d’alerte : l’IA peut être utile, mais elle doit être encadrée avec rigueur pour ne pas devenir un vecteur de souffrance…   Source

Laisser un commentaire