4 min de lecture

Qu'est-ce qui vous effraie le plus dans l'IA ? Nous avons posé la question aux internautes

Bitdefender

Décembre 12, 2025

Promo
Un seul produit pour protéger tous vos appareils, sans les ralentir.
Essai gratuit de 30 jours
Qu'est-ce qui vous effraie le plus dans l'IA ? Nous avons posé la question aux internautes

Dans l'enquête Bitdefender 2025 sur la cybersécurité des consommateurs, plus de 7 000 consommateurs dans sept pays ont clairement indiqué qu'ils craignaient que l'IA soit utilisée à des fins frauduleuses et trompeuses.

Bien que l'IA promette des avancées incroyables, 37 % des personnes interrogées ont déclaré que « l'utilisation [de l'IA] dans des escroqueries sophistiquées (par exemple, les vidéos deepfake) » était leur principale préoccupation, devant la perte d'emploi et la désinformation.

Alors, de quoi les gens ont-ils peur exactement ? Derrière cette statistique se cache une réalité qui semble tout droit sortie d'une série télévisée de science-fiction : des systèmes d'IA capables d'imiter des voix, de fabriquer des visages et de créer des illusions convaincantes, tout cela dans le but de soutirer de l'argent à des gens ordinaires.

« C'est moi, envoie-moi de l'argent ! »

En Floride, une femme a perdu 15 000 dollars après avoir reçu un appel téléphonique qui ressemblait exactement à celui de sa fille en détresse. Les escrocs ont reproduit la voix de sa fille à l'aide d'une technologie de clonage vocal basée sur l'IA et ont inventé une histoire crédible pour demander une aide urgente.

De même, un autre parent a reçu un appel et un message vocal de ce qui semblait être son fils, affirmant qu'il avait eu un accident de voiture et qu'il avait besoin immédiatement de 15 000 dollars pour payer sa caution. La voix semblait suffisamment authentique pour provoquer la panique et lui faire presque remettre l'argent.

Ces cas ne sont pas isolés. La police a averti que les kidnappeurs et les extorqueurs utilisent de plus en plus des vidéos et des enregistrements audio deepfake comme « preuve de vie » pour faire pression sur les victimes avant qu'elles ne puissent vérifier ce qui se passe réellement.

Des visages de synthèse

Les escroqueries vocales sont terrifiantes, mais la portée de l'IA ne s'arrête pas au son.

À Bengaluru, en Inde, une femme de 54 ans a été dupée par une vidéo deepfake d'une personnalité publique bien connue vantant les mérites d'une fausse plateforme de trading. Elle a non seulement communiqué ses coordonnées bancaires, mais a également transféré l'équivalent de plus de 33 lakhs (environ 40 000 dollars) avant de se rendre compte qu'il s'agissait d'une fraude.

Partout dans le monde, des images deepfake ont été utilisées pour usurper l'identité de dirigeants, de célébrités et de fonctionnaires, afin de persuader les victimes d'investir, de cliquer sur des liens malveillants ou de divulguer des données sensibles.

Dans un incident largement médiatisé l'année dernière, des appels vidéo générés par l'IA ont été utilisés pour usurper l'identité du directeur financier d'une entreprise, ce qui a conduit un employé inconscient à transférer plus de 25 millions de dollars.

La menace plus large des deepfakes

Au-delà des escroqueries financières, les vidéos générées par l'IA apparaissent de manière inquiétante :

  • Des deepfakes de vrais médecins faisant la promotion de produits de santé non vérifiés ont circulé sur les principales plateformes sociales, diffusant des informations erronées.
  • Des vidéos deepfake mettant en scène des personnalités des forces de l'ordre ont été utilisées dans des publications de désinformation visant à tromper et à manipuler la confiance du public.
  • Au cours des années précédentes, des escrocs ont même utilisé de fausses vidéos de personnalités politiques et de leaders industriels pour tromper les investisseurs.

Il ne s'agit pas d'hypothèses, mais de cas documentés qui montrent comment l'IA réduit les obstacles à la tromperie hautement réaliste dans les sphères privée et publique.

Pourquoi est-ce si efficace ?

Les technologies d'IA qui génèrent des voix, des images et des vidéos synthétiques sont devenues si sophistiquées que même les experts ont parfois du mal à distinguer le vrai du faux.

Les criminels peuvent entraîner ces systèmes à l'aide de contenus accessibles au public (publications sur les réseaux sociaux, discours publics, podcasts) afin de créer des imitations convaincantes à partir d'un minimum de matériel source original.

Parallèlement, de nombreux consommateurs favorisent inconsciemment ces menaces en partageant trop d'informations personnelles en ligne ou en négligeant d'utiliser des outils de sécurité de base, exactement le type de comportements mis en évidence dans l'enquête Bitdefender.

Ce que vous pouvez faire (conseils de sécurité aux particuliers)

Voici quelques moyens pratiques de vous protéger, vous et vos proches, à l'ère de la tromperie par l'IA :

1. Établissez un « code » familial : si un proche vous appelle en détresse, un mot de passe convenu à l'avance vous permettra de vérifier instantanément la situation.

2. Vérifiez les demandes inattendues : si un proche vous appelle pour vous demander de l'argent, prenez le temps de vérifier par un autre moyen (SMS, appel vidéo avec caméra allumée ou contact avec un autre membre de la famille). Ne cédez jamais à une demande pressante : les escrocs misent sur la peur et l'urgence pour contourner le scepticisme.

3. Méfiez-vous des médias « trop réels » : les vidéos deepfake et l'audio IA peuvent sembler extrêmement convaincants. Recherchez les incohérences (pauses étranges, éclairage artificiel, synchronisation labiale incorrecte). Si quelque chose vous semble bizarre, ne supposez pas que c'est réel.

4. Renforcez votre empreinte numérique : limitez ce que vous publiez publiquement — moins il y a de données disponibles, plus il est difficile pour les escrocs de cloner votre voix ou votre image. Utilisez des mots de passe forts, l'authentification multifactorielle (MFA) et des solutions de sécurité réputées sur tous vos appareils.

5. Sensibilisez votre entourage : parlez des escroqueries par IA à vos proches, en particulier aux personnes âgées. La sensibilisation est l'une des défenses les plus efficaces.

6. Signalez les contenus suspects : si vous êtes confronté à une tentative de deepfake ou d'escroquerie, signalez-la à la plateforme et, si nécessaire, aux forces de l'ordre. Votre signalement pourrait sauver quelqu'un d'autre.

7. Utilisez un outil dédié à la détection des escroqueries : Scamio, notre chatbot gratuit de lutte contre les escroqueries, peut vous avertir d'une attaque potentielle contre vos finances, votre sécurité ou votre vie privée.

tags


Auteur


Bitdefender

The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”

Voir toutes les publications

Vous pourriez également aimer

Marque-pages


loader