Les arnaques en ligne ont toujours existé. Ce qui change aujourd'hui, c'est leur niveau de sophistication. L'intelligence artificielle permet de générer des profils convaincants, des conversations naturelles, des faux documents d'une qualité quasi professionnelle, et des deepfakes vidéo ou audio qui imitent des personnes réelles. Les signaux d'alerte classiques - fautes d'orthographe, incohérences de langage, photos génériques - sont de moins en moins fiables.
Comprendre comment ces arnaques fonctionnent est la première étape pour s'en protéger. Mais la comprendre ne suffit pas à se défendre seul.
Comment l'IA est utilisée dans les arnaques modernes
Les outils d'IA générative permettent aujourd'hui de créer des profils de toutes pièces : photo réaliste générée par un modèle d'image, biographie cohérente, historique de publications sur les réseaux sociaux, voire faux documents d'identité ou relevés bancaires. Ce qui prenait des heures de manipulation manuelle se fait désormais en quelques minutes, et le résultat est souvent indétectable à l'oeil nu.
Dans les arnaques sentimentales, l'IA permet de maintenir des conversations simultanées avec des dizaines de victimes potentielles, en adaptant le ton et le contenu à chaque personne. Dans les arnaques à l'investissement, elle génère de faux rapports de performance, de fausses captures d'écran de gains, et de faux témoignages de clients satisfaits. Les deepfakes audio et vidéo permettent d'imiter la voix ou l'image de célébrités ou de dirigeants pour légitimer une demande urgente.
Les nouveaux signaux d'alerte - et leurs limites
Face à des arnaques générées par IA, certains signaux évoluent. Une fluidité de conversation trop parfaite, des réponses qui semblent légèrement décalées par rapport à ce que vous venez de dire, une incapacité à répondre à des questions très spécifiques sur des détails personnels, une vidéo ou un audio dont la synchronisation semble légèrement artificielle.
Mais ces signaux sont subtils, ne sont pas toujours présents, et les modèles d'IA s'améliorent rapidement. Ce qui était détectable il y a six mois ne l'est peut-être plus aujourd'hui. S'appuyer uniquement sur ces signaux pour se protéger, c'est jouer à armes inégales.
Ce que l'IA ne peut pas falsifier
Malgré la sophistication des outils d'IA, certaines informations restent difficiles à falsifier à grande échelle. L'historique réel d'une entité juridique dans des registres officiels indépendants. Les décisions de justice disponibles dans des bases de données publiques. Les traces numériques cohérentes sur plusieurs années dans des sources que l'arnaqueur ne contrôle pas. La correspondance - ou l'absence de correspondance - entre une identité déclarée et ce qui apparaît dans des registres indépendants.
Ce n'est pas la détection du texte généré par IA qui protège - c'est la vérification de ce qui existe réellement derrière la personne ou l'entité, indépendamment de ce qu'elle vous montre.
Les secteurs les plus touchés
Les arnaques dopées à l'IA touchent particulièrement : l'investissement en ligne (crypto, forex, trading), les rencontres sentimentales, les faux recrutements où une offre d'emploi trop belle cache une demande de données personnelles ou d'argent, et les arnaques au faux support technique où une IA imite un conseiller d'une grande entreprise. Dans chacun de ces cas, la sophistication de l'arnaque rend la vérification indépendante d'autant plus nécessaire.
Ce que nous faisons
Chez YMV & Co., nous réalisons des vérifications pour des particuliers qui ont un doute sur l'authenticité d'une personne, d'une plateforme ou d'une opportunité rencontrée en ligne. Notre approche va chercher ce que l'IA ne peut pas inventer : le passé réel, les traces indépendantes, les incohérences entre ce qui est déclaré et ce qui est vérifiable.