Les IA génératives comme ChatGPT sont devenues des compagnons de plus en plus populaires pour des millions de personnes à travers le monde. Que ce soit pour obtenir des conseils, rédiger du contenu ou simplement discuter, ces chatbots semblent capables de tout savoir… et de tout retenir. Cependant, une prudence s’impose, car certaines informations ne doivent en aucun cas être partagées avec ChatGPT. Découvrons lesquelles et pourquoi il est important de ne pas leur confier vos données sensibles.
Les informations personnelles et d’identité
C’est une règle de base : ne jamais communiquer d’informations personnelles comme votre numéro de sécurité sociale, votre carte d’identité, votre passeport, votre adresse complète, ou encore votre numéro de téléphone. Bien que certaines IA soient programmées pour anonymiser et filtrer ces données, il subsiste toujours un risque.
Un incident survenu en mars 2023 a mis en lumière les dangers de telles divulgations. En raison d’un bug de ChatGPT, des utilisateurs ont pu voir des extraits de conversations d’autres personnes. Même si cette faille a été corrigée depuis, cet événement souligne l’importance d’une prudence maximale lorsque l’on interagit avec un chatbot.
Les résultats médicaux
Partager des résultats médicaux avec ChatGPT peut sembler une option pratique si vous souhaitez obtenir un second avis. Toutefois, contrairement à un médecin ou à un professionnel de santé, les chatbots n’ont aucune obligation légale en matière de protection des données de santé. Une information mal stockée ou interceptée pourrait être utilisée contre vous, par exemple dans le cadre de discrimination assurantielle ou pour du ciblage publicitaire.
Les informations financières
Ne partagez en aucun cas votre numéro de compte bancaire, vos identifiants d’accès ou toute autre donnée liée à vos finances. Les chatbots ne sont pas conçus pour servir de coffres-forts numériques et peuvent, en cas de fuite, exposer vos informations à des risques. Gardez ces données à l’abri, en utilisant des services sécurisés.
Les données confidentielles de votre entreprise
Que ce soit pour rédiger un e-mail professionnel, brainstormer sur un projet ou analyser des documents sensibles, ChatGPT peut être un outil très utile. Mais sachez que tout ce que vous tapez pourrait être enregistré et potentiellement utilisé pour entraîner l’IA. Si votre entreprise ne dispose pas d’une version privée et sécurisée de ces outils, évitez de partager des informations stratégiques ou confidentielles avec un chatbot public. La confidentialité professionnelle est cruciale, et une fuite de données pourrait avoir des conséquences graves.
Les mots de passe et identifiants
Les chatbots ne sont absolument pas conçus pour stocker ou sécuriser vos mots de passe. Utilisez plutôt un gestionnaire de mots de passe dédié pour garder vos identifiants en sécurité. De plus, n’oubliez pas d’activer l’authentification à deux facteurs pour renforcer la sécurité de vos comptes en ligne.
En conclusion : la limite des chatbots
Les IA génératives, telles que ChatGPT, sont de puissants outils qui facilitent notre quotidien. Cependant, elles ne devraient pas devenir vos confidents. Partager des informations personnelles, médicales, financières ou professionnelles peut comporter des risques majeurs en cas de faille de sécurité. Comme l’explique Jennifer King, membre de l’Institut de Stanford pour l’intelligence artificielle centrée sur l’humain, « Les chatbots sont conçus pour continuer la conversation, mais c’est à vous de savoir où mettre la limite. » En d’autres termes, il est essentiel de comprendre jusqu’où vous pouvez aller et où il est préférable de tracer la ligne.


