
Dans l'enquête Bitdefender 2025 sur la cybersécurité des consommateurs, plus de 7 000 consommateurs dans sept pays ont clairement indiqué qu'ils craignaient que l'IA soit utilisée à des fins frauduleuses et trompeuses.
Bien que l'IA promette des avancées incroyables, 37 % des personnes interrogées ont déclaré que « l'utilisation [de l'IA] dans des escroqueries sophistiquées (par exemple, les vidéos deepfake) » était leur principale préoccupation, devant la perte d'emploi et la désinformation.
Alors, de quoi les gens ont-ils peur exactement ? Derrière cette statistique se cache une réalité qui semble tout droit sortie d'une série télévisée de science-fiction : des systèmes d'IA capables d'imiter des voix, de fabriquer des visages et de créer des illusions convaincantes, tout cela dans le but de soutirer de l'argent à des gens ordinaires.
En Floride, une femme a perdu 15 000 dollars après avoir reçu un appel téléphonique qui ressemblait exactement à celui de sa fille en détresse. Les escrocs ont reproduit la voix de sa fille à l'aide d'une technologie de clonage vocal basée sur l'IA et ont inventé une histoire crédible pour demander une aide urgente.
De même, un autre parent a reçu un appel et un message vocal de ce qui semblait être son fils, affirmant qu'il avait eu un accident de voiture et qu'il avait besoin immédiatement de 15 000 dollars pour payer sa caution. La voix semblait suffisamment authentique pour provoquer la panique et lui faire presque remettre l'argent.
Ces cas ne sont pas isolés. La police a averti que les kidnappeurs et les extorqueurs utilisent de plus en plus des vidéos et des enregistrements audio deepfake comme « preuve de vie » pour faire pression sur les victimes avant qu'elles ne puissent vérifier ce qui se passe réellement.
Les escroqueries vocales sont terrifiantes, mais la portée de l'IA ne s'arrête pas au son.
À Bengaluru, en Inde, une femme de 54 ans a été dupée par une vidéo deepfake d'une personnalité publique bien connue vantant les mérites d'une fausse plateforme de trading. Elle a non seulement communiqué ses coordonnées bancaires, mais a également transféré l'équivalent de plus de 33 lakhs (environ 40 000 dollars) avant de se rendre compte qu'il s'agissait d'une fraude.
Partout dans le monde, des images deepfake ont été utilisées pour usurper l'identité de dirigeants, de célébrités et de fonctionnaires, afin de persuader les victimes d'investir, de cliquer sur des liens malveillants ou de divulguer des données sensibles.
Dans un incident largement médiatisé l'année dernière, des appels vidéo générés par l'IA ont été utilisés pour usurper l'identité du directeur financier d'une entreprise, ce qui a conduit un employé inconscient à transférer plus de 25 millions de dollars.
Au-delà des escroqueries financières, les vidéos générées par l'IA apparaissent de manière inquiétante :
Il ne s'agit pas d'hypothèses, mais de cas documentés qui montrent comment l'IA réduit les obstacles à la tromperie hautement réaliste dans les sphères privée et publique.
Les technologies d'IA qui génèrent des voix, des images et des vidéos synthétiques sont devenues si sophistiquées que même les experts ont parfois du mal à distinguer le vrai du faux.
Les criminels peuvent entraîner ces systèmes à l'aide de contenus accessibles au public (publications sur les réseaux sociaux, discours publics, podcasts) afin de créer des imitations convaincantes à partir d'un minimum de matériel source original.
Parallèlement, de nombreux consommateurs favorisent inconsciemment ces menaces en partageant trop d'informations personnelles en ligne ou en négligeant d'utiliser des outils de sécurité de base, exactement le type de comportements mis en évidence dans l'enquête Bitdefender.
Voici quelques moyens pratiques de vous protéger, vous et vos proches, à l'ère de la tromperie par l'IA :
1. Établissez un « code » familial : si un proche vous appelle en détresse, un mot de passe convenu à l'avance vous permettra de vérifier instantanément la situation.
2. Vérifiez les demandes inattendues : si un proche vous appelle pour vous demander de l'argent, prenez le temps de vérifier par un autre moyen (SMS, appel vidéo avec caméra allumée ou contact avec un autre membre de la famille). Ne cédez jamais à une demande pressante : les escrocs misent sur la peur et l'urgence pour contourner le scepticisme.
3. Méfiez-vous des médias « trop réels » : les vidéos deepfake et l'audio IA peuvent sembler extrêmement convaincants. Recherchez les incohérences (pauses étranges, éclairage artificiel, synchronisation labiale incorrecte). Si quelque chose vous semble bizarre, ne supposez pas que c'est réel.
4. Renforcez votre empreinte numérique : limitez ce que vous publiez publiquement — moins il y a de données disponibles, plus il est difficile pour les escrocs de cloner votre voix ou votre image. Utilisez des mots de passe forts, l'authentification multifactorielle (MFA) et des solutions de sécurité réputées sur tous vos appareils.
5. Sensibilisez votre entourage : parlez des escroqueries par IA à vos proches, en particulier aux personnes âgées. La sensibilisation est l'une des défenses les plus efficaces.
6. Signalez les contenus suspects : si vous êtes confronté à une tentative de deepfake ou d'escroquerie, signalez-la à la plateforme et, si nécessaire, aux forces de l'ordre. Votre signalement pourrait sauver quelqu'un d'autre.
7. Utilisez un outil dédié à la détection des escroqueries : Scamio, notre chatbot gratuit de lutte contre les escroqueries, peut vous avertir d'une attaque potentielle contre vos finances, votre sécurité ou votre vie privée.
tags
The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”
Voir toutes les publicationsMars 13, 2025
Juillet 01, 2024
Juin 10, 2024
Juin 03, 2024