VICTIME D'UNE CYBERATTAQUE ?
Vous êtes :

La technologie des intelligences artificielles connaît une croissance très importante depuis 10 ans. Elle a comme objectif d’automatiser, d’accélérer ou d’améliorer des tâches, le plus souvent simples et répétitives, qui nécessitaient autrefois une intervention humaine.
Aujourd’hui, elle est utilisée partout : dans l’industrie, la santé, l’administratif, la création ou encore la cybersécurité mais aussi pour des activités malveillantes. C’est notamment le cas des deepfakes dont l’usage premier réside dans la production audiovisuelle, car ils permettent de créer des personnages de toute pièce et d’adapter le mouvement des lèvres afin pour corresponde au doublage dans différentes langues. 

Qu'est ce qu'un deepfake ?

Un deepfake (hypertrucage en français), mot anglais formé à partir de « deep learning » et de « fake », est une technique consistant à modifier des enregistrements audios et vidéos grâce à l’intelligence artificielle. Elle permet ainsi de faire dire ou faire à une personne des choses qu’elle n’a jamais dites ou faites. Le terme est apparu en 2017 sur le réseau social Reddit et est rapidement devenu viral. 

Aux origines de cette technologie

Les premières technologies se rapprochant du deepfake étaient utilisées au cinéma. C’est notamment le cas dans le film « Rogue One : A Star Wars Story », sorti en 2016, qui a utilisé des technologies similaires, mais elles ne reposaient pas à 100% sur de l’IA. Dès la démocratisation des deepfakes, la technologie a rapidement été utilisée à des fins détournées, d’abord en altérant des discours de politiciens ou de personnalités, puis en créant de toute pièces des vidéos de stars effectuant des actions insolites. Cependant, cette technologie est tellement efficace qu’elle a rapidement intéressé des personnes mal intentionnées, qui y ont vu une véritable poule aux œufs d’or de l’arnaque.

Les dangers du deepfake

Depuis tout temps, les relations humaines reposent sur la confiance. C’est ce qui fait qu’on prête de l’argent à son meilleur ami mais pas à un inconnu. La confiance met du temps à se mettre en place.
Du point de vue des arnaqueurs, la limite du phishing traditionnel pour les arnaqueurs est qu’ils manquent de crédibilité. La plupart du temps, leurs cibles ne font pas confiance en un message envoyé par un inconnu. Certes, certaines personnes inexpérimentées ou mal renseignées se font tout de même fait duper, mais leur nombre est limité.
Or, le deepfake donne aux arnaqueurs une crédibilité vocale et visuelle, ce qui accentue grandement la confiance qu’on peut avoir en eux. Ainsi, les personnes ciblées se méfieront moins si l’arnaqueur reproduit fidèlement un audio ou une vidéo d’un proche, collègue ou même patron.

Les méthodes utilisées

Evidemment plus la personne donc l’identité usurpée est connue, plus le deepfake sera crédible car il existe de très nombreuses ressources pouvant alimenter l’IA, et la rendre le plus proche de la perfection possible.

Les deepfakes audios : les escrocs vont récupérer votre voix à partir d’un enregistrement trouvé sur internet pour en recréer une quasiment identique avec l’IA. Ils vont ensuite appeler un de vos proches, collègues ou collaborateurs (facilement accessibles en ligne) pour demander un virement ou de lui transmettre des données confidentielles.

Les deepfakes vidéos : en reportant votre visage sur le leur, les arnaqueurs vont pouvoir organiser des visioconférences ou appels vidéo avec vos proches ou collègues, toujours dans le but d’extorquer de l’argent ou des données sensibles. Les services financiers sont des cibles privilégiées car ils ont le pouvoir de transférer de l’argent.

 

Les deepfakes d’identité : Les escrocs vont utiliser l’IA pour créer des faux papiers d’identité et des profils pro et perso sur les réseaux sociaux. Ce moyen, encore plus subtil permet d’infiltrer des groupes privés ou entreprise, et de contourner la sécurité de certains sites et services.

Des exemples d'arnaques au deepfake

En 2024, à Hong Kong, un salarié a transféré près de 26 millions de dollars à des arnaqueurs. Ces derniers se sont fait passer pour des cadres de l’entreprise en utilisant la technologie des deepfakes. Après avoir convoqué le salarié à une fausse visioconférence, ils lui ont demandé plusieurs transactions. Bien que le salarié émît des doutes, il a été rassuré par les visages familiers de ses supérieurs et a fait perdre 26 millions de dollars à son entreprise.

 

Il y a également le cas d’Anne, qui pensait avoir une relation privilégiée avec un Brad Pitt hospitalisé à qui elle a donné plus de 800 000 euros pour ses soins. En réalité, elle parlait à un arnaqueur qui se faisait passer pour la star américaine.  

L'évolution ultra rapide des deepfakes

Aujourd’hui, avec la démocratisation des modèles grand public comme Veo 3 de Google ou Sora 2 d’OpenAI, internet pullule de vidéos truquées générées par IA. De plus, les technologies évoluent à une vitesse folle.

En 2023, une vidéo générée par l’ia de Will Smith qui mange des spaghettis a été publiée par OpenAI. La qualité était très médiocre et on voyait très clairement qu’elle était générée par IA. Cependant, une vidéo sur le même thème a été générée en 2025 et la différence est frappante : le visage de Will Smith, la physique des spaghettis, la manière dont il tient ses couverts, tout semble réaliste https://youtu.be/fF5RSmiXzIE. Pas parfait, certes mais réaliste, en à peine deux ans, les vidéos truquées par IA sont passées de fakes grossiers à des vidéos pour lesquelles le doute est permis. 

 

Dans les prochaines années, les vidéos ne représenteront plus forcément la réalité. En effet, avec les technologies de deepfake, n’importe quelle vidéo pourra être truquée. Il deviendra donc essentiel de se méfier de ce que l’on regarde et d’utiliser des outils capables de vérifier l’authenticité des images. Ces technologies deviennent non seulement de plus en plus réalistes, mais aussi accessibles à tout le monde. Les entreprises comme les particuliers doivent dès maintenant se préparer à cette évolution pour se protéger contre ces nouvelles menaces.

Comment les reconnaître ?

Les deepfakes deviennent de plus en plus précis et difficiles à détecter. Cependant, il existe encore des moyens de les identifier :
Premièrement, vous connaissez mieux vos proches et collègues que les arnaqueurs. Vous connaissez alors leurs tics de langage, habitudes et comportements. Ainsi, méfiez-vous de comportements anormaux lors d’un appel avec un proche, et particulièrement s’il vous fait des demandes étranges.
Pour reconnaître les deepfakes vidéos, il faut être attentif aux détails tels que des clignements des yeux irréguliers, des mouvements non synchronisés, peau trop lisse…
Enfin, pour les audios, méfiez-vous des tons trop mécaniques, de l’absence d’émotion et des audios trop parfaits.

 

Au moindre doute, vous devez impérativement contacter directement la personne concernée via un autre canal afin de vous assurer qu’il s’agit bien d’elle. Mieux vaut passer quelques minutes à vérifier que de vous faire avoir.