L’article publié le 18 août 2025 par l’Université de Guelph met en lumière une expérience troublante menée par le professeur Ali Dehghantanha, expert en cybersécurité. Dans le cadre d’un audit proactif pour une entreprise du Fortune 500, il a réussi à manipuler un assistant intelligent afin d’en extraire des données sensibles, révélant ainsi les failles critiques de ce type de technologie.
Le chercheur a notamment pu obtenir des informations confidentielles sur des clients et des projets internes, puis rédiger un courriel convaincant semblant provenir du PDG de l’entreprise. Ce message, contenant des données réelles, aurait pu être utilisé pour tromper des employés, illustrant le potentiel de désinformation facilité par les assistants IA.
L’article souligne que, malgré les politiques de conformité mises en place, les mécanismes de protection de l’assistant étaient facilement contournables. Grâce à des scénarios de jeu de rôle et des conversations en plusieurs étapes, Dehghantanha a pu pousser l’IA à agir au-delà de ses permissions, une technique que des cybercriminels pourraient également exploiter.
Selon le chercheur, plus les assistants IA sont connectés à des systèmes internes, plus leur surface d’attaque s’élargit. Il compare cette situation à celle d’un stagiaire à qui l’on donnerait un accès illimité aux dossiers de l’entreprise sans supervision, soulignant l’imprudence de certaines intégrations technologiques.
L’article rappelle que ces assistants sont déjà utilisés dans des secteurs variés comme le commerce, les finances, les PME et les administrations publiques. Bien qu’ils améliorent la productivité, leur usage expose les organisations à des risques importants. Dehghantanha recommande de tester ces systèmes comme le ferait un adversaire, de limiter leur accès aux données et de surveiller leur comportement en temps réel.
Enfin, il insiste sur l’importance d’intégrer la sécurité des IA dès la conception des stratégies de gestion des risques. Cette étude met en évidence les défis croissants liés à l’usage des assistants intelligents et appelle les chercheurs à développer des approches plus rigoureuses pour encadrer leur déploiement… Source
Le chercheur a notamment pu obtenir des informations confidentielles sur des clients et des projets internes, puis rédiger un courriel convaincant semblant provenir du PDG de l’entreprise. Ce message, contenant des données réelles, aurait pu être utilisé pour tromper des employés, illustrant le potentiel de désinformation facilité par les assistants IA.
L’article souligne que, malgré les politiques de conformité mises en place, les mécanismes de protection de l’assistant étaient facilement contournables. Grâce à des scénarios de jeu de rôle et des conversations en plusieurs étapes, Dehghantanha a pu pousser l’IA à agir au-delà de ses permissions, une technique que des cybercriminels pourraient également exploiter.
Selon le chercheur, plus les assistants IA sont connectés à des systèmes internes, plus leur surface d’attaque s’élargit. Il compare cette situation à celle d’un stagiaire à qui l’on donnerait un accès illimité aux dossiers de l’entreprise sans supervision, soulignant l’imprudence de certaines intégrations technologiques.
L’article rappelle que ces assistants sont déjà utilisés dans des secteurs variés comme le commerce, les finances, les PME et les administrations publiques. Bien qu’ils améliorent la productivité, leur usage expose les organisations à des risques importants. Dehghantanha recommande de tester ces systèmes comme le ferait un adversaire, de limiter leur accès aux données et de surveiller leur comportement en temps réel.
Enfin, il insiste sur l’importance d’intégrer la sécurité des IA dès la conception des stratégies de gestion des risques. Cette étude met en évidence les défis croissants liés à l’usage des assistants intelligents et appelle les chercheurs à développer des approches plus rigoureuses pour encadrer leur déploiement… Source