GPT-4o : son générateur d’images devient l’arme secrète des tricheurs

Le dernier modèle d’IA d’OpenAI, GPT-4o, fait sensation, mais soulève aussi de nombreuses inquiétudes. Capable de générer des images parfaitement réalistes intégrant du texte lisible et fluide, ce générateur d’images marque une avancée technologique majeure. Il répond à une demande longtemps insatisfaite : l’intégration d’un texte qui semble véritablement authentique, un exploit que les anciens modèles d’IA n’étaient pas capables de reproduire. Pourtant, cette prouesse n’a pas mis longtemps à attirer l’attention de certains utilisateurs, qui n’ont pas hésité à l’exploiter pour manipuler des documents du quotidien.

Le générateur d’images : un outil redoutable pour falsifier des documents

Deedy Das, associé chez Menlo Ventures, a partagé sur X une image générée par GPT-4o : un faux reçu de restaurant. Ce document, qui ressemble à s’y méprendre à une addition d’un steakhouse réputé de San Francisco, présente un sous-total, un pourboire et des taxes d’une précision frappante. Dans son tweet, Deedy Das déclare : « Il existe trop de processus de vérification qui se basent sur de “vraies images” comme preuve. Cette époque est révolue. » Cette déclaration marque un tournant, où les preuves visuelles traditionnelles sont désormais vulnérables face à cette évolution numérique.

Une fausse preuve, une nouvelle réalité

Certains utilisateurs ont poussé l’expérience encore plus loin en ajoutant des détails réalistes à ces faux documents, comme des taches de sauce et un filtre vintage sur un reçu de restaurant. Le document ainsi transformé semble être un ticket datant de quelques heures, glissé dans une poche de veste. Ces fausses preuves pourraient rendre beaucoup plus difficile à détecter les abus, en particulier dans des contextes professionnels où les frais de repas ou de déplacements sont souvent sujets à des fraudes.

Mais les expérimentations ne se sont pas arrêtées aux faux reçus de restaurant. Toujours selon Deedy Das, GPT-4o a également été utilisé pour créer des ordonnances médicales falsifiées, y compris pour des substances réglementées telles que le Zoloft. Ces documents, d’apparence parfaitement officiels, pourraient être utilisés à des fins frauduleuses dans des démarches administratives ou médicales, étendant ainsi les possibilités d’abus bien au-delà des simples faux tickets de caisse.

Une IA qui rend la détection de fraudes plus complexe

L’un des grands défis posés par GPT-4o est que, contrairement aux anciens générateurs d’images qui produisaient des textes flous ou des caractères déformés, cette nouvelle IA génère des caractères nets, bien alignés, avec une mise en page soignée et crédible. Cette amélioration rend la détection des falsifications beaucoup plus difficile pour les autorités de contrôle. De plus, les métadonnées ou filigranes qui permettaient jusque-là d’identifier les images générées par l’IA peuvent désormais être facilement supprimés, rendant encore plus ardues les tentatives de vérification.

Une fraude déjà bien ancrée dans nos habitudes

Il convient de rappeler que la fraude, en particulier dans les domaines des frais professionnels et des remboursements, est loin d’être nouvelle. Une enquête menée en 2015 avait révélé que 85 % des personnes interrogées avaient déjà triché sur leurs remboursements professionnels. Ces pratiques, souvent passées inaperçues à cause de contrôles internes insuffisants, sont désormais facilitées par les outils d’IA. GPT-4o ouvre ainsi de nouvelles possibilités pour ceux qui souhaitent exploiter les failles existantes, rendant la fraude plus subtile et difficile à détecter.

Alors, bien que les avancées technologiques aient le potentiel d’apporter des bénéfices indéniables, elles comportent aussi des risques réels. L’IA, si elle est mal utilisée, pourrait bien devenir un outil puissant pour les fraudeurs, avec des conséquences bien plus graves que des simples faux reçus.

Send this to a friend