ChatGPT : ces 4 phrases à ne surtout jamais dire à l’IA selon les experts

ChatGPT peut être un outil extrêmement utile pour répondre à des questions, générer du contenu ou même engager des conversations intéressantes. Cependant, il existe certaines informations qu’il vaut mieux éviter de partager avec cette intelligence artificielle. Voici quatre éléments que vous devriez absolument garder pour vous, selon les experts en sécurité numérique.

Ne pas divulguer d’informations personnelles

L’une des règles les plus importantes à suivre est de ne jamais partager d’informations qui pourraient permettre de vous identifier. Cela inclut des données sensibles comme votre numéro de sécurité sociale, votre adresse, ou encore des informations liées à votre carte d’identité ou passeport. Bien sûr, des détails moins privés comme la couleur de vos cheveux ou votre taille ne représentent pas de risques majeurs, mais il vaut mieux rester prudent. ChatGPT n’étant pas conçu pour protéger de telles informations, mieux vaut éviter de lui en confier.

Ne jamais partager vos mots de passe

ChatGPT peut être très pratique pour gérer certains aspects de votre vie numérique, mais il n’est certainement pas un coffre-fort virtuel. Évitez de partager vos mots de passe, identifiants bancaires ou tout autre code confidentiel avec l’IA. Bien que l’outil puisse mémoriser ces informations, il existe toujours un risque de fuite ou de mauvaise gestion des données. En cas de faille de sécurité, ces informations pourraient être exposées, ce qui pourrait avoir des conséquences graves.

Garder ses états d’âme pour soi

Si vous avez des préoccupations personnelles ou des émotions à partager, il est préférable de vous adresser à un professionnel ou à un proche plutôt que de les confier à ChatGPT. Bien que l’IA puisse vous écouter et répondre de manière empathique, il ne faut pas oublier que vos états d’âme peuvent être enregistrés et potentiellement exposés si des failles surviennent. En cas de piratage des journaux de conversation, des opinions politiques, des questions religieuses ou des problèmes émotionnels pourraient être accessibles. Des experts en cybersécurité, comme ceux de BitDefender, recommandent vivement de ne pas utiliser ChatGPT comme confident.

Éviter de parler de votre travail

ChatGPT peut être utile pour des tâches professionnelles simples comme résumer des réunions ou générer des idées, mais il n’est pas conçu pour gérer des informations confidentielles liées à votre entreprise. Partager des détails sensibles concernant votre travail, vos collègues ou des projets en cours pourrait entraîner des risques si des failles de sécurité se produisent. Par exemple, une brèche de sécurité en mars 2023 a révélé par erreur des extraits de conversations privées d’utilisateurs.

En somme, bien que ChatGPT soit un excellent outil pour obtenir des informations ou résoudre des problèmes simples, il est essentiel de toujours garder en tête qu’une fois vos données partagées, elles peuvent être utilisées, stockées et exposées. La prudence est de mise lorsqu’il s’agit de confier des informations personnelles à l’IA.

Send this to a friend