Il faut considérer toute interaction avec un chatbot comme une conversation avec un inconnu. C’est le conseil de Vladislav Tushkanov, Lead Data Scientist chez Kaspersky, fournisseur de solutions de sécurité. Il réagit au dysfonctionnement subi en début de cette semaine par Chat GPT, l’agent conversationnel d’OpenAI piloté par intelligence artificielle.
L’historique de conversations rendu public
« Ce dysfonctionnement a rendu public à d’autres internautes l’historique de conversations de certains utilisateurs. Ce bug a été rapidement maîtrisé par OpenAI, mais il pose de nombreuses questions en matière de cyber sécurité et de protection des données personnelles » estime Vladislav Tushkanov. Pour être plus précis, ChatGPT a rendu public les titres décrivant l’historique des échanges d’autres internautes. Sam Altman, fondateur d’OpenAI s’en est excusé sur Twitter.
Vladislav Tushkanov, de Kaspersky, pour sa part, retient que ChatGPT prévient ses utilisateurs sur les risques encourus quand on l’utilise. « Bien que la fuite ait exposé certaines informations de ses utilisateurs, il faut noter que ChatGPT les avertit, lors de la connexion, que ‘les conversations peuvent être examinées par nos formateurs d’IA’ et demande « [de ne pas] partager d’informations sensibles dans vos conversations’. De sorte que dès le début, les utilisateurs n’auraient dû avoir aucune attente en matière de confidentialité lorsqu’ils utilisaient la démo web de l’agent conversationnel » explique le spécialiste.
On ne sait pas où le contenu aboutira
D’où son conseil, « considérez toute interaction avec un chatbot ou tout autre service, d’ailleurs comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors abstenez-vous de révéler des informations personnelles ou sensibles sur vous-même ou sur d’autres personnes » termine Vladislav Tushkanov. Il est important de noter que ChatGPT Web Demo et l’API (qui peut être utilisée par les entreprises) sont des interfaces différentes, ajoute-t-il.