Sélectionner une page

Deepfakes et arnaques : 10 signes pour repérer une image/vidéo truquée

Deepfakes et arnaques : 10 signes pour repérer une image/vidéo truquée

Introduction

Nous sommes entrés dans l’ère de la « post-vérité visuelle ». Il y a encore quelques années, une vidéo ou un enregistrement audio servait de preuve irréfutable. Aujourd’hui, grâce aux deepfakes (ou « hypertrucages »), il est possible de faire dire n’importe quoi à n’importe qui, avec une ressemblance troublante. Des politiciens tenant des discours qu’ils n’ont jamais prononcés, des célébrités vantant des arnaques aux cryptomonnaies, ou pire, des escrocs imitant la voix de votre propre enfant pour vous demander un virement urgent : la menace est réelle et grandissante. L’IA générative a rendu la création de ces faux contenus accessible à tous, pour quelques euros et sans compétences techniques. Mais si l’IA est douée pour l’illusion, elle n’est pas encore parfaite. Elle laisse derrière elle de minuscules indices, des « cicatrices numériques » que l’œil et l’oreille avertis peuvent apprendre à détecter. Dans cet article, nous allons passer en revue 10 signes concrets pour repérer une image ou une vidéo truquée. Notre objectif est de vous donner les réflexes de cyber-autodéfense nécessaires pour protéger votre identité, votre argent et votre tranquillité d’esprit dans un monde où il ne faut plus croire tout ce que l’on voit.

Qu’est-ce qu’un deepfake et comment sont-ils créés ?

Le terme « deepfake » vient de la fusion de « deep learning » (apprentissage profond) et de « fake » (faux). Il s’agit de contenus générés par des réseaux de neurones artificiels, principalement des GANs (Generative Adversarial Networks). Imaginez deux IA : l’une est un faussaire qui essaie de créer le portrait le plus réaliste possible, et l’autre est un détective qui essaie de trouver les erreurs. Elles s’entraînent l’une contre l’autre des millions de fois jusqu’à ce que le faussaire devienne si doué que même le détective n’arrive plus à faire la différence.

Aujourd’hui, on utilise aussi des « modèles de diffusion » qui partent d’un brouillard de pixels pour reconstruire une image nette basée sur une description. Ces technologies sont merveilleuses pour le cinéma ou les jeux vidéo, mais elles sont détournées par des cybercriminels pour créer des preuves factices. Pour comprendre la base de cette création, vous pouvez relire notre article sur le fonctionnement de l’IA générative.

Signe n°1 : Le regard et le clignement des yeux

C’est historiquement le talon d’Achille des deepfakes. Les humains clignent des yeux régulièrement, d’une manière naturelle et souvent inconsciente. Les premières IA oubliaient tout simplement de faire cligner leurs sujets. Aujourd’hui, elles le font, mais souvent de manière trop rythmée, trop rare, ou au contraire trop saccadée. Observez aussi la direction du regard. Dans un deepfake, les yeux peuvent sembler « morts » ou ne pas suivre correctement les mouvements de la tête. Parfois, les reflets dans les pupilles ne sont pas cohérents avec l’éclairage de la pièce : un point lumineux à gauche dans l’œil droit, mais à droite dans l’œil gauche, par exemple. C’est un signe mathématique qu’il s’agit d’une image reconstruite.

Signe n°2 : La jonction entre le visage et les cheveux

L’IA a beaucoup de mal avec les détails ultra-fins et chaotiques comme les cheveux, surtout sur les bords. Regardez attentivement la ligne où le front rencontre les cheveux. Dans un deepfake, vous verrez souvent un léger flou, un effet de « halo » ou des mèches de cheveux qui semblent se fondre dans la peau. De même, les poils de barbe ou les sourcils peuvent paraître trop uniformes, comme s’ils avaient été peints à l’aérographe. Si la personne porte des lunettes, observez les branches : l’IA a souvent du mal à gérer la transition entre la peau, les cheveux et la monture, créant des distorsions bizarres quand la tête bouge.

Le saviez-vous ? La « Vallée de l’étrange » (Uncanny Valley) est ce sentiment de malaise que nous éprouvons face à un robot ou une image de synthèse qui ressemble presque parfaitement à un humain, mais avec de légères imperfections qui nous signalent que « quelque chose cloche ».

Signe n°3 : Les mains et les accessoires (les ennemis de l’IA)

Si vous avez un doute sur une image, regardez les mains. L’IA générative a une difficulté notoire à comprendre l’anatomie complexe des mains humaines. On voit souvent des personnages avec six doigts, des doigts trop longs, ou des mains qui semblent sortir du corps de manière illogique. Observez aussi les bijoux : des boucles d’oreilles qui ne sont pas identiques à gauche et à droite, ou un collier qui se fond dans le cou. Les boutons de chemise, les motifs complexes sur les vêtements ou les lunettes de soleil sont autant de pièges pour l’IA qui peine à maintenir une cohérence géométrique parfaite.

Signe n°4 : La synchronisation labiale et les sons « parasites »

Dans les vidéos, la bouche est le centre de toutes les attentions. Un deepfake audio-visuel doit synchroniser le mouvement des lèvres avec le son. Regardez si les mouvements de la bouche correspondent exactement aux sons produits, notamment pour les lettres « B », « M » et « P » qui demandent de fermer les lèvres. Souvent, la bouche d’un deepfake semble un peu trop souple ou, au contraire, trop rigide. À l’oreille, écoutez les silences. Une voix générée par IA est souvent trop « propre », sans bruits de respiration naturelle, ou avec des intonations métalliques étranges à la fin des phrases. Les arnaques téléphoniques utilisent souvent une musique de fond bruyante pour masquer ces imperfections sonores.

Signe n°5 : L’éclairage et les ombres illogiques

L’IA traite souvent le visage séparément du reste du corps ou du décor. Cela crée des incohérences lumineuses. Si la lumière vient de la droite mais que l’ombre sous le nez de la personne est dirigée vers la droite aussi, c’est un faux. Regardez aussi les ombres portées sur le cou : elles sont souvent trop floues ou inexistantes dans les deepfakes de basse qualité. Les reflets sur la peau (la sueur, la brillance) doivent aussi bouger de manière cohérente avec la source de lumière. Si le visage semble « posé » sur le décor comme un autocollant, méfiez-vous.

Signe n°6 : Les arrière-plans flous ou déformés

Pour masquer ses erreurs, l’IA ou le faussaire utilise souvent un arrière-plan flou (effet bokeh). Mais regardez les objets dans le fond. Si les lignes droites d’un mur, d’un cadre ou d’un meuble semblent onduler ou se déformer lorsque la personne bouge la tête, c’est que l’algorithme de remplacement de visage « tire » sur les pixels environnants. L’IA a aussi tendance à créer des arrière-plans trop génériques ou avec des textes illisibles qui ressemblent à du « faux latin » numérique.

 Définition : GAN  Les Réseaux Antagonistes Génératifs sont un type d’IA où deux systèmes s’affrontent pour créer des images réalistes, l’un générant et l’autre critiquant.

Signe n°7 : La peau trop parfaite (ou trop bizarre)

La texture de la peau humaine est pleine d’imperfections : pores, rides, grains de beauté, cicatrices. Les deepfakes ont tendance à produire des visages trop lisses, comme s’ils avaient subi un filtre de beauté extrême. À l’inverse, sous un examen attentif, la peau peut présenter des taches de couleurs bizarres ou des zones de « bruit » numérique qui ne ressemblent pas à une texture biologique. Si une personne de 70 ans a la peau d’un bébé de 20 ans dans une vidéo, posez-vous des questions.

Signe n°8 : Le test de l’émotion et de la micro-expression

Les humains expriment leurs émotions par des micro-expressions complexes impliquant des dizaines de muscles faciaux. Un deepfake peut sourire, mais ses yeux ne « souriront » pas forcément en même temps. Il y a souvent un décalage émotionnel : la personne dit quelque chose de triste mais son visage reste neutre ou exprime une joie légère. Cette déconnexion entre le contenu du message et l’expression faciale est un signal d’alarme puissant pour notre cerveau social.

Signe n°9 : La source et le contexte (le « Fact-Checking »)

Parfois, le meilleur indice n’est pas dans l’image, mais autour. D’où vient cette vidéo ? Est-elle publiée sur un compte officiel certifié ? Si vous voyez une vidéo incroyable d’un homme politique sur un compte TikTok obscur appelé « News12345 », c’est suspect. Faites une recherche inversée d’image (via Google Images) pour voir si la vidéo originale existe. Souvent, les deepfakes utilisent une base réelle qu’ils modifient. Si vous trouvez la vidéo originale avec un discours différent, le doute n’est plus permis.

Signe n°10 : L’urgence et la demande d’argent (l’arnaque au président)

Le signe ultime, surtout dans les arnaques, c’est le contexte psychologique. Un deepfake n’est qu’un outil pour une escroquerie. Si une vidéo ou un appel audio (même avec la voix d’un proche) vous demande d’agir dans l’urgence, de garder le secret et d’envoyer de l’argent (virement, cryptomonnaies, cartes cadeaux), c’est une arnaque. L’émotion est l’ennemie de la vigilance. En cas de doute, raccrochez et rappelez la personne sur son numéro habituel ou posez-lui une question dont seul votre proche connaît la réponse.

Conclusion

La technologie des deepfakes progresse vite, mais notre capacité d’analyse doit progresser plus vite encore. Nous avons vu que les indices sont partout : dans les yeux, les mains, la voix ou le contexte. La règle d’or est désormais la suivante : « Vérifier avant de croire ». Ne partagez jamais une information choquante ou une demande d’argent sans avoir passé au crible ces 10 signes. L’IA nous oblige à redevenir des observateurs attentifs de notre réalité numérique. Pour mieux comprendre la provenance des données qui alimentent ces IA, consultez notre dossier sur Données + IA : qui voit quoi ?. En vous éduquant et en éduquant vos proches (en particulier les plus jeunes et les seniors, cibles privilégiées des arnaqueurs), vous créez un rempart contre la manipulation. La vérité a encore un avenir, à condition que nous restions aux commandes de notre esprit critique. Face à la machine, votre meilleur outil reste votre intuition humaine.

FAQ

Existe-t-il des logiciels pour détecter automatiquement les deepfakes ?

Oui, des entreprises et des universités développent des « détecteurs de deepfakes ». Cependant, ces outils sont souvent engagés dans une course aux armements avec les créateurs de deepfakes. Pour le grand public, des sites comme « Deepware » permettent de tester une vidéo, mais ils ne sont pas fiables à 100 %. Votre observation reste primordiale.

Mon visage peut-il être utilisé pour créer un deepfake à mon insu ?

Malheureusement, oui. Si vous avez des photos ou des vidéos publiques sur les réseaux sociaux, un escroc peut les utiliser. C’est pourquoi il est recommandé de passer ses profils en « privé » et de faire attention à qui on accepte dans ses cercles d’amis.

Que faire si je suis victime d’un deepfake (usurpation d’identité) ?

Il faut agir vite : signalez le contenu sur la plateforme où il est diffusé, déposez plainte à la gendarmerie ou à la police, et prévenez vos contacts pour qu’ils ne tombent pas dans une éventuelle arnaque financière en votre nom. Vous pouvez aussi consulter le portail officiel cybermalveillance.gouv.fr.

A propos de l'auteur

Sébastien CHAMI

« Depuis 2011, j’ai pour mission d’accompagner les entreprises, les commerçants, les artisans, les indépendants et les étudiants dans leur transition numérique, en les aidant à adopter des stratégies innovantes et des outils web performants. Aujourd’hui, cela passe inévitablement par l’intégration de l’intelligence artificielle. Mon objectif est de vous aider à renforcer votre image, maximiser votre potentiel commercial et améliorer votre agilité numérique en tirant pleinement parti des opportunités offertes par l’IA générative. Je vous guide dans la maîtrise d’outils d’IA pour optimiser votre création de contenu, votre marketing, votre communication et vos processus internes, vous permettant ainsi de gagner en efficacité, en créativité et en compétitivité. »

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *