Il confie son délit à ChatGPT… et l’IA le trahit d’une façon inattendue

Faire confiance à une intelligence artificielle pour se décharger d’un secret ? Mauvaise idée. Un étudiant américain de 18 ans l’a appris à ses dépens en croyant confier une bêtise à ChatGPT… qui a fini par l’accuser à sa manière. Retour sur une histoire où technologie et justice se croisent.

Un étudiant, un parking… et 17 voitures abîmées

Ryan Joseph Schaefer, 18 ans, aurait sans doute mieux fait de garder sa mésaventure pour lui. Le jeune homme, étudiant à l’université d’État de Springfield (États-Unis), a été interpellé après avoir causé des dégradations sur pas moins de 17 véhicules en stationnement. Jusqu’ici, rien de très nouveau dans les annales des petites bêtises universitaires (quoique celle-ci a coûté cher).

Mais là où l’histoire prend un tournant inattendu, c’est lorsqu’il décide, pensant bien faire, de demander conseil… à ChatGPT. Oui, le chatbot d’OpenAI. L’idée ? Savoir s’il risquait gros pour ces actes. L’intelligence artificielle a répondu – comme elle le fait toujours – avec ses mots polis et ses formules bien tournées. Mais elle a surtout laissé des traces numériques.

Une « confidence » qui revient comme un boomerang

Lors de son arrestation, Ryan nie tout en bloc. Problème : la police, en fouillant son téléphone, tombe sur des échanges avec ChatGPT. Noir sur blanc, l’étudiant y évoque son geste, ses craintes, et surtout sa peur de finir en prison. Un aveu presque complet, consigné dans une conversation numérique que l’on croyait privée. L’accusation tient là un élément solide.

Autant dire que son échange avec l’IA a été perçu comme un aveu déguisé. Et même si l’IA n’a pas « dénoncé » l’étudiant activement, les captures de ces échanges, elles, ont joué ce rôle… sans ménagement.

Les IA, ces confidents aux oreilles trop grandes

Cette histoire soulève une vraie question : peut-on faire confiance à une intelligence artificielle pour garder un secret ? La réponse semble être non. Contrairement à un thérapeute, un avocat ou un prêtre, ChatGPT (et ses cousins) n’offre aucun cadre légal protecteur. Aucune garantie de confidentialité. Et surtout : les échanges peuvent être consultés, parfois récupérés à des fins techniques ou légales.

Sam Altman, PDG d’OpenAI, l’a d’ailleurs reconnu dans un podcast : des utilisateurs confient des choses très intimes à l’IA. Trop peut-être. Il plaide pour une meilleure reconnaissance juridique de ces échanges, les comparant à ceux entre un patient et son médecin. Mais pour l’instant, c’est loin d’être acté.

Des données à usage multiple… et potentiellement judiciaire

Comme l’explique Bernhard Kloos, expert en droit informatique, « on ne sait jamais vraiment ce qu’il advient de ce qu’on écrit dans une IA ». Une phrase qui, dans le cas de Ryan, prend un sens particulièrement amer. Car dans les mauvaises mains – ou simplement les mains de la police – ces données peuvent devenir des éléments à charge. Et ce, même si elles ont été écrites dans un cadre intime ou informel.

Cette affaire n’est pas isolée. Des chercheurs en cybersécurité tirent régulièrement la sonnette d’alarme sur le stockage et la réutilisation des données dans les IA génératives. Le Conseil national du numérique en France a d’ailleurs recommandé en 2024 une réglementation renforcée sur les IA conversationnelles, y compris en matière de confidentialité et de conservation des données.

Une morale (pas si virtuelle) à retenir

On a tous eu ce réflexe : tester ChatGPT pour savoir s’il peut nous tirer d’un mauvais pas, ou juste pour vider son sac. Mais cette affaire rappelle une vérité brutale : tout ce qu’on écrit peut être lu. Et dans un monde où nos téléphones sont des boîtes noires prêtes à parler à la moindre enquête, il vaut mieux réfléchir à deux fois avant de tout confier à une IA.

Car même les plus brillants des algorithmes ne connaissent ni le secret professionnel, ni la discrétion bienveillante. Et Ryan, lui, risque bien de s’en souvenir longtemps.

Send this to a friend