Portefeuille

Les 10 Arnaques Crypto Alimentées par l'IA en 2025 et Comment Protéger vos Fonds

il y a 21 heures
Les 10 Arnaques Crypto Alimentées par l'IA en 2025 et Comment Protéger vos Fonds

Les investisseurs réguliers en crypto font face à une menace alarmante : des escrocs armés d'intelligence artificielle avancée. Crypto fraud enabled by AI a explosé l'année dernière – les rapports d'arnaques assistées par l'IA créative ont augmenté de 456% entre mi-2024 et mi-2025.

Les fraudeurs utilisent maintenant l'IA pour créer de fausses vidéos, voix et messages réalistes, rendant leurs arnaques crypto plus convaincantes et plus difficiles à détecter que jamais. Selon le FBI, près de 150 000 plaintes de fraude liées à la crypto ont été déposées en 2024, avec plus de 3,9 milliards de dollars de pertes signalées rien qu'aux États-Unis. À l'échelle mondiale, les pertes dues aux arnaques crypto ont dépassé 10,7 milliards de dollars en 2024 – et cela pourrait n'être que la partie émergée de l'iceberg, puisque seulement environ 15 % des victimes signalent les crimes.

Même Sam Altman, le PDG de OpenAI, a averti que la capacité de l'IA à imiter les humains a "complètement vaincu la plupart des méthodes d'authentification" et pourrait entraîner une "crise de fraude imminente significative". Dans cet article, nous allons décortiquer les 10 arnaques crypto alimentées par l'IA qui sévissent dans l'industrie, illustrer comment elles fonctionnent avec des exemples concrets et, surtout, comment vous pouvez vous en protéger.

be87d68f-600e-4f3f-817f-24e725a46810.png

Graphique : La part des transactions d'arnaques crypto impliquant des outils d'IA a grimpé depuis 2021, avec environ 60 % de toutes les adresses de dépôt d'arnaque en 2025 liées à des schémas assistés par l'IA. Cela reflète à quelle vitesse les mauvais acteurs ont adopté l'IA pour intensifier la fraude.

1. Arnaques de Faux Endossements de Célébrités (Vidéos & Streams Falsifiés)

L'une des arnaques crypto les plus prolifiques alimentées par l'IA implique des deepfakes de figures célèbres promouvant des schémas frauduleux. Les escrocs imitent numériquement des personnalités bien connues de la tech et de la crypto – Elon Musk est un favori – dans des vidéos qui annoncent de faux giveaways ou des plateformes d'investissement. Par exemple, des criminels piratent des chaînes YouTube populaires et diffusent en direct des vidéos truquées d'Elon Musk (ou d'autres influenceurs crypto comme Brad Garlinghouse de Ripple ou Michael Saylor de MicroStrategy) semblant promettre "doublerez votre Bitcoin" ou d'autres rendements irréels. En réalité, la vidéo et l'audio ont été manipulés par l'IA; les vraies personnes n'ont jamais fait ces déclarations. Les spectateurs qui envoient des crypto à l'adresse annoncée dans l'espoir de gagner des récompenses se font simplement voler?

C'est une évolution des anciennes arnaques de giveaway crypto qui utilisaient de véritables extraits d'entrevues de célébrités. Maintenant, avec la technologie des deepfakes, les escrocs insèrent de nouveaux contenus audio/vidéo pour que cela semble que la célébrité approuve directement leur site de fraude. Ces faux flux en direct peuvent être extrêmement convaincants au premier regard. Chainabuse (un site public de rapports de fraude) a reçu des signalements d'un flux deepfake d'Elon Musk à la mi-2024 qui a attiré plusieurs victimes en quelques minutes, rapportant des sommes significatives aux escrocs. L’analyse de la blockchain a montré plus tard que les adresses de fraude ont reçu au moins 5 millions de dollars des victimes entre mars 2024 et janvier 2025, et un autre schéma Musk deepfake vantant une “plateforme de trading IA” a rapporté plus de 3,3 millions de dollars. Une étude par la société de cybersécurité Sensity a trouvé que Musk est la célébrité la plus fréquemment deepfakée dans les arnaques d'investissement, probablement parce que son image confère de la crédibilité et il parle souvent de crypto. Les escrocs exploitent cette confiance.

Pour aggraver les choses, la technologie du live deepfake permet désormais des appels vidéo en temps réel avec un faux visage. Cela signifie qu'un escroc peut littéralement apparaître comme quelqu'un d'autre lors d'un appel Zoom. Dans un cas frappant, des criminels ont usurpé l'identité d'un directeur financier d'une société et de collègues lors d'un appel vidéo en utilisant un échange de visage par IA, trompant un employé pour transférer 25 millions de dollars aux fraudeurs. Les dirigeants deepfake semblaient et sonnaient vrais – un scénario cauchemardesque pour toute organisation. Comme l’a noté Sam Altman d’OpenAI, “les deepfakes de voix ou de vidéo deviennent indiscernables de la réalité”. Pour l’investisseur crypto moyen, une vidéo deepfake d’une figure de confiance comme un PDG célèbre ou le fondateur d’un projet peut être très persuasive.

Comment repérer et éviter ces arnaques : Soyez extrêmement sceptique vis-à-vis des promotions crypto “trop belles pour être vraies”, même si elles mettent en vedette une célébrité. Examinez la vidéo de près – les deepfakes peuvent présenter de légers défauts tels que des clignements d’yeux non naturels, d’étranges mouvements de bouche ou un éclairage mal assorti autour du visage. Écoutez les cadences audio non naturelles ou les artefacts vocaux. Si une personne bien connue promet soudainement des profits garantis ou des giveaways (surtout dans un live stream vous demandant d'envoyer de la crypto), c’est presque certainement une arnaque. Vérifiez avec des sources officielles; par exemple, Elon Musk déclare à plusieurs reprises qu'il ne fait pas de giveaway crypto. Ne jamais envoyer de fonds à des adresses aléatoires issues d'une vidéo. En cas de doute, faites une pause – les escrocs se fient à l'excitation et à l'urgence. En prenant un moment pour vérifier à partir de canaux officiels ou de sources d'information si la promotion est réelle (elle ne le sera pas), vous pouvez éviter de tomber dans ces pièges de faux endossement deepfake.

2. Arnaques d'Impersonation avec Voix & Vidéos Deepfake (Dirigeants ou Proches)

Les deepfakes IA ne se limitent pas aux milliardaires célèbres – les escrocs les utilisent également pour usurper l’identité de personnes que vous connaissez ou de figures d’autorité en qui vous avez confiance. Dans ces stratagèmes, les criminels exploitent des clones de voix générés par IA et des avatars vidéo pour duper les victimes dans des contextes plus personnels. Une variante inquiétante est l’arnaque “appel d’urgence d’un proche” : Une victime reçoit un appel téléphonique et entend, par exemple, la voix de son petit-fils ou de son conjoint prétendant un problème urgent et demandant de l'argent (souvent en crypto ou virement bancaire). En réalité, le véritable membre de la famille n’a jamais appelé – un fraudeur avait échantillonné leur voix (peut-être à partir d’une vidéo sur les réseaux sociaux) et utilisé l’IA pour cloner leur discours et leur ton, puis a appelé la victime en détresse. De telles arnaques de cloning vocal ont déjà trompé des personnes à travers le monde, exploitant l’émotion humaine. Juste un court clip audio suffit pour créer un clone convaincant avec les outils d’aujourd’hui.

Une autre variation cible les entreprises et les investisseurs par des faux dirigeants ou partenaires. Comme mentionné, des escrocs au début de 2024 ont usurpé l’identité du directeur financier de la firme mondiale Arup dans un appel vidéo, mais ce n’est pas le seul cas. À Hong Kong, une banque s’est fait voler des millions après que des employés aient obéi à des instructions de ce qui semblait être les dirigeants de leur entreprise – des voix générées par IA. Nous avons également vu des fraudeurs deepfaker les identités de fondateurs de start-up et de responsables d’échanges crypto, contactant des investisseurs ou clients via chat vidéo pour autoriser des transferts frauduleux. Ces deepfakes “usurpation de PDG” exploitent le fait que de nombreuses interactions professionnelles se sont déplacées en ligne. Si vous reconnaissez le visage et la voix de votre patron lors d’un appel Zoom, vous êtes enclin à leur faire confiance. Le logiciel d'échange de visage en direct peut superposer le visage d'une cible sur celui de l'escroc en temps réel, faisant apparaître que la personne réelle parle. La victime est alors instruite d'envoyer des fonds ou de révéler des codes de sécurité. Certaines entreprises n'ont réalisé qu'elles ont été dupées qu'après la disparition de l'argent.

Les escrocs combinent même des tactiques pour des escroqueries de “grooming” longues : Les équipes de pig butchering (escroqueries d’investissement à long terme, voir la section 3) ont commencé à utiliser de brèves vidéos pour “prouver” que leur fausse personnalité est réelle. En utilisant soit un acteur engagé soit un modèle deepfake d’une personne attrayante, ils s’engageront dans une conversation vidéo avec une victime juste assez longtemps pour construire la confiance, puis continueront l'arnaque par texto. Des chercheurs de TRM Labs ont observé des instances de réseaux d'escroquerie payant pour des deepfake-as-a-service – louant essentiellement des outils d'IA pour mener des impostures vidéo en direct – ce qui indique un marché criminel croissant pour des deepfakes à la demande. Dans un cas, un réseau d’arnaque a dépensé une partie de ses gains en crypto pour un service d’IA et a encaissé plus de 60 millions de dollars des victimes, suggérant que l'investissement dans la technologie deepfake a été fortement rentable.

Comment vous protéger : La clé est la vérification par des canaux secondaires. Si vous recevez un appel inattendu ou un chat vidéo demandant de l’argent ou des infos sensibles, n’agissez pas immédiatement, peu importe à qui cela ressemble/sonne. Raccrochez et appelez la personne à leur numéro connu, ou vérifiez avec un autre contact. Par exemple, si “votre patron” vous envoie un message concernant un paiement, vérifiez en appelant directement votre patron ou en confirmant avec un collègue. Les familles peuvent établir des mots de code pour les urgences – si un appelant prétendant être votre proche ne connaît pas le code préétabli, vous saurez que c'est une fraude. Méfiez-vous de tout appel vidéo où le visage de la personne paraît légèrement anormal (trop lisse, détails étranges des yeux ou des cheveux) ou si l’audio est juste un peu décalé ou robotique. Les instructions financières par vidéo/email devraient toujours être doublement vérifiées avec une confirmation en personne ou par voix sur une ligne de confiance. Comme l’a souligné Sam Altman, l’authentification traditionnelle (comme la reconnaissance vocale) n’est plus fiable. Traitez toute demande urgente non sollicitée de crypto ou de transferts avec le plus grand scepticisme, même si elle “vient de” quelqu'un en qui vous avez confiance. Prendre quelques minutes pour vérifier indépendamment l'identité peut vous sauver (ou votre entreprise) d'une arnaque deepfake coûteuse.

3. Arnaques de Romance & d'Investissement Améliorées par l'IA (Arnaques "Pig Butchering")

Les soi-disant arnaques pig butchering – des stratagèmes à long terme dans lesquels les fraudeurs développent une relation en ligne avec la victime avant de vider leurs économies – sont devenues beaucoup plus dangereuses grâce à l’IA. Dans un scénario typique de pig butchering (souvent une romance ou une amitié cultivée via les réseaux sociaux ou les applis de rencontres), les escrocs passent des semaines ou des mois à gagner la confiance de la victime. Ils présentent finalement une "grande" opportunité d'investissement crypto et convainquent la victime d’y investir de l’argent, pour que tout le schéma s’avère faux. Ces arnaques", "sont exigeantes pour les escrocs, qui doivent discuter quotidiennement et jouer de manière crédible le rôle d’un amant ou d’un mentor. Maintenant, les chatbots et deepfakes en IA superchargent ce processus, transformant le pig butchering en une opération de fraude à l'échelle mondiale, plutôt qu'un à un.

Les syndicats d’escroquerie déploient des modèles de langage IA (LLMs) pour gérer l’essentiel de la communication avec les cibles. Utilisant des outils comme ChatGPT – Skip translation for markdown links.

Content : ou des variantes illicites non censurées comme "WormGPT" et "FraudGPT" – elles peuvent générer des messages fluides et charmants dans n'importe quelle langue, 24 heures sur 24 et 7 jours sur 7. Cela signifie qu'un escroc peut gérer des dizaines de victimes simultanément, avec l'IA rédigeant des textos aimants individualisés, une analyse de marché ou tout ce que requiert le scénario. En fait, une enquête de 2023 menée par Sophos a révélé que les groupes de "pig butchering" avaient commencé à utiliser ChatGPT pour rédiger leurs conversations ; une victime a même reçu un message étrange collé qui a accidentellement révélé qu'il était généré par l'IA. Hormis l'erreur, les LLM permettent aux escrocs de "hyper-personnaliser" leur approche – ajustant le ton et le contenu pour parfaitement correspondre aux antécédents et à l'état émotionnel de chaque victime. Les jours de l'anglais approximatif ou des scripts copiés-collés sont révolus. Avec l'IA, les textes semblent authentiques, rendant les victimes encore plus susceptibles de succomber à l'argumentaire final.

L'IA brise également la barrière de la langue qui limitait autrefois ces escroqueries. À l'origine, de nombreux cercles de "pig butchering" étaient basés en Asie du Sud-Est ciblant des victimes sinophones. L'expansion vers les victimes occidentales était entravée par les compétences en anglais plus faibles des escrocs – une grammaire maladroite était souvent un signal d'alerte. Désormais, la traduction et la rédaction basées sur les LLM permettent à un non-natif d'escroquer sans problème quelqu'un en anglais, allemand, japonais ou tout autre marché lucratif. Les escrocs transmettent les messages reçus à une IA pour la traduction et la génération de réponses, leur permettant de se faire passer pour des investisseurs cosmopolites ou des partenaires romantiques, même dans des langues qu'ils ne parlent pas. Cela a considérablement élargi le bassin de cibles. Des professionnels bien éduqués en Europe ou en Amérique du Nord qui auraient pu rejeter des messages d'escroquerie maladroits peuvent désormais recevoir une correspondance soignée et parfaitement localisée d'un "entrepreneur séduisant" qui les a rencontrés en ligne. Le résultat ? Plus de victimes engraissées (comme des "porcs") pour l'abattage final.

Et n'oublions pas les deepfakes dans le "pig butchering". Bien que la plupart des séductions se fassent par texte, les escrocs programment parfois de brefs appels vidéo pour dissiper les soupçons. Ici, ils utilisent de plus en plus des vidéos deepfake avec échange de visage – par exemple, un escroc peut engager une femme pour apparaître à l'écran mais utiliser l'IA pour remplacer son visage par les photos volées qu'ils ont utilisées dans le profil. Cette stratégie de "preuve de vie" convainc la victime que son amoureux en ligne est réel. (Certaines opérations font même de la publicité pour des "vrais modèles de visage" qui, avec l'aide de filtres AI, apparaissent comme le partenaire de rêve de la victime en vidéo.) Une fois la confiance établie, les escrocs orientent les victimes vers l'investissement dans de fausses plateformes cryptographiques ou des programmes de "minage de liquidité", affichant souvent de fausses captures d'écran de profits pour inciter à des dépôts plus importants. On sait que des victimes ont refinancé des maisons ou vidé des 401(k) sous l'illusion d'une vie ensemble avec leur escroc ou de rendements énormes à venir. C'est absolument dévastateur – et l'IA ne fait qu'amplifier la tromperie.

Comment éviter les scams de "pig butchering" : Maintenez un scepticisme sain concernant les relations uniquement en ligne ou les mentorats qui démarrent de manière aléatoire et deviennent anormalement intenses. Si quelqu'un que vous n'avez jamais rencontré en personne vous guide pour investir dans la cryptomonnaie ou vous demande de l'aide financière, c'est un signal d'alarme flagrant. Faites une recherche d'image inversée sur les photos de profil pour voir si elles sont volées (de nombreux escrocs de "pig butchering" utilisent des photos de mannequins ou d'autres victimes). Méfiez-vous des appels vidéo où la caméra de la personne est étrangement de basse qualité ou ils ne montrent pas pleinement leur visage – ils pourraient dissimuler une anomalie due à un deepfake. La pression pour investir rapidement ou les prétentions de connaissances privilégiées sont des signes d'escroquerie. De plus, rappelez-vous que les professionnels de l'investissement légitime ou les partenaires romantiques ne promettent pas généralement de profits garantis. Le FBI et d'autres agences ont émis des avertissements officiels concernant le "pig butchering" et les scams de romance crypto – alors informez-vous et informez les autres sur le fonctionnement de ces escroqueries. Si vous soupçonnez quelqu'un d'être un escroc, coupez le contact et n'envoyez jamais d'argent ou de cryptomonnaie. Et si vous avez été ciblé, signalez-le (anonymement si nécessaire) pour aider les autorités à traquer ces réseaux. La vigilance est votre meilleure défense, de sorte que, peu importe à quel point le discours séducteur alimenté par l'IA est alléchant, vous ne tomberez pas dans le piège.

4. E-mails et messages de phishing rédigés par l'IA (Des escroqueries plus intelligentes à grande échelle)

Le phishing – ces e-mails ou textos frauduleux qui vous incitent à cliquer sur un lien malveillant ou à divulguer des informations privées – a longtemps été un jeu de nombres. Les escrocs envoient des milliers de messages génériques ("Votre compte est à risque, connectez-vous ici...") espérant que quelques personnes mordront à l'hameçon. Maintenant, l'IA rend le phishing beaucoup plus convaincant et ciblé. Avec des outils comme les modèles de langage génératifs, les attaquants peuvent facilement créer des messages personnalisés et fluides qui imitent le style des communications authentiques, augmentant considérablement leur taux de réussite.

Les grands modèles de langage (LLM) peuvent générer des appâts de phishing presque indiscernables d’un véritable e-mail de votre banque, d'un échange cryptographique ou d'un ami. Ils éliminent les erreurs de grammaire et les formulations maladroites qui trahissaient souvent les anciennes escroqueries. Par exemple, une IA peut être instruite pour rédiger un e-mail urgent de la part de "[Your Crypto Exchange] Security" vous avertissant d'un retrait et fournissant un lien pour "sécuriser votre compte". Le texte sera soigné et conforme à la marque. Les escrocs utilisent également l'IA pour analyser vos réseaux sociaux et adapter précisément les messages – en faisant référence à des transactions récentes ou en nommant un ami – une technique connue sous le nom de spear phishing. Ce niveau de personnalisation demandait autrefois un effort considérable, mais un agent IA peut le faire en quelques secondes en récupérant des données publiques.

Il existe même des outils AI clandestins spécialement conçus pour la cybercriminalité. Étant donné que les modèles publics comme ChatGPT ont des filtres contre l'utilisation illicite, les criminels ont développé ou acheté des LLM du marché noir comme "WormGPT" et "FraudGPT" qui n'ont pas de telles restrictions. Ces IA malveillantes, disponibles sur les forums du dark web, peuvent produire des e-mails de phishing convaincants, du code malveillant, voire des conseils de fraude étape par étape. Avec une simple invite, un escroc aux compétences en anglais limitées peut produire un e-mail presque parfait dans n'importe quelle langue, ou générer tout le contenu textuel d'un site de phishing. Selon la société de formation en cybersécurité KnowBe4, d'ici 2024, près de 74 % des e-mails de phishing qu'ils ont analysés présentaient des signes d'utilisation de l'IA – en d'autres termes, la majorité des tentatives de phishing sont désormais boostées par les capacités rédactionnelles de l'IA.

Au-delà des e-mails, les chatbots IA posent une menace sur les plateformes de messagerie. Les escrocs peuvent déployer des bots sur Telegram, Discord, WhatsApp, etc., qui engagent les utilisateurs dans une conversation en temps réel, les attirant comme le ferait un humain. Par exemple, vous pourriez tweeter à propos d'un problème avec votre portefeuille crypto et recevoir rapidement une réponse d'un "représentant du support" (en réalité un bot) qui vous envoie un DM. L'IA, prétendant être un service client, vous guide ensuite à travers une fausse "vérification" qui vole vos clés. Étant donné que le chatbot peut comprendre et répondre naturellement à vos questions, vous êtes moins susceptible de vous rendre compte qu'il est faux. Ce genre d'ingénierie sociale pilotée par l'IA peut tromper même les utilisateurs les plus avertis en technologie. Dans un cas, des escrocs ont mis en place un chatbot "assistant d'investissement" frauduleux qui promettait d'aider les utilisateurs à échanger de la cryptomonnaie – il n'était rien de plus qu'un piège pour collecter les clés API et les informations de compte.

Illustration conceptuelle d'un escroc numérique utilisant l'IA. Les attaques de phishing et les logiciels malveillants sont de plus en plus aidés par des algorithmes IA, capables de générer des messages réalistes et même du code malveillant pour voler des mots de passe et des fonds en cryptomonnaie.

De plus, l'IA peut aider au piratage en produisant du code malveillant et en automatisant des attaques. Par exemple, un criminel avec peu de compétences en codage peut demander à une IA non censurée d'écrire un programme qui vide les portefeuilles crypto ou installe un enregistreur de frappe pour capturer les phrases semi-secrètes. Il y a eu des rapports de ransomwares de base et de voleurs d'informations créés avec l'aide de l'IA. Bien que cela relève plus du piratage que de l’escroquerie, les lignes sont floues – souvent un e-mail de phishing délivre un malware. Avec de l'aide IA, les criminels peuvent produire de nouvelles variantes de logiciels malveillants plus rapidement que les équipes de sécurité ne peuvent les bloquer. Et l'IA peut également aider à contourner les vérifications de sécurité : en résolvant les CAPTCHAs, générant de fausses cartes d'identité pour passer les vérifications (voir section 6), voire en craquant des mots de passe en devinant intelligemment (bien que les clefs cryptographiques fortes restent sûres, les faibles ne le sont pas). Sam Altman a averti que même les vérifications d'identité par selfie et les authentifications vocales sont devenues triviales pour l'IA à tromper, ce qui signifie que les méthodes d’authentification sur lesquelles nous comptons doivent être urgemment améliorées.

Comment rester à l'écart des phishers assistés par l'IA : Les conseils ancestraux s'appliquent toujours : ne cliquez jamais sur des liens suspects ou ne téléchargez pas de pièces jointes d'expéditeurs inconnus, aussi légitime que puisse paraître le message. Soyez extrêmement vigilant pour toute communication (email, message texto, DM) qui crée un sentiment d'urgence ou demande vos identifiants de connexion, vos codes 2FA ou votre phrase semi-secrète. Même si la mise en forme et le langage semblent parfaits, vérifiez attentivement l'email/le domaine de l'expéditeur – recherchez des erreurs subtiles ou des URL mal assorties (par exemple "binance.support.com au lieu du véritable domaine). Confirmez directement avec le service ou la personne si vous recevez une demande inattendue. Utilisez des canaux d'application/site web officiels plutôt que les liens fournis dans les messages. Sur les plateformes sociales, méfiez-vous du "support" qui vous contacte de manière proactive ; les entreprises légitimes ne demanderont pas de mots de passe via DM. Techniquement, activez les protections contre le phishing telles que les filtres email et les outils de réputation web – et gardez votre antivirus et logiciels à jour pour attraper les malwares. Plus important encore, maintenez un état d'esprit sceptique. Si on vous pousse à agir rapidement ou à divulguer des informations, c’est à ce moment que vous devriez ralentir et vérifier. En traitant tous les messages non sollicités avec prudence, vous pouvez déjouer même les escroqueries conçues par l'IA. Rappelez-vous qu'aucune entreprise ou ami authentique ne se souciera si vous prenez une minute supplémentaire pour confirmer l'authenticité – seuls les escrocs pressent pour une action instantanée.

5. Faux bots et plateformes de trading "AI" (L’escroquerie d’investissement sur le battage médiatique de l’IA)

La frénésie autour de l'intelligence artificielle n'a pas seulement bénéficié opérationnellement aux escrocs – elle est également devenue l'appât lui-même. Au cours des dernières années, il y a eu une explosion de projets cryptographiques frauduleux et de schémas de trading qui vantent l'IA comme leur sauce secrète. Les escrocs savent que l'investisseur moyen est intrigué par le potentiel de l'IA àVoici la traduction du contenu demandé formaté conformément à vos instructions :

Générer des bénéfices. Ainsi, ils créent de faux robots de trading alimentés par l'IA, des groupes de signaux ou des plateformes DeFi qui promettent des rendements garantis grâce à un algorithme avancé, alors qu'en réalité, ce ne sont que des illusions.

Une ruse courante est l'arnaque du “robot de trading IA” : vous êtes invité (souvent via Telegram ou Reddit) à utiliser un robot qui exploite prétendument l'IA pour trader des cryptos et réaliser d'énormes gains. Le robot pourrait même montrer des résultats simulés ou une démo qui effectue quelques trades profitables sur un compte test. Mais une fois que vous déposez vos propres fonds pour que le robot commence à trader, il commence à perdre – ou les escrocs disparaissent tout simplement avec votre argent. Dans d'autres cas, les escrocs promeuvent un “fonds d'investissement IA” ou un pool minier – vous leur envoyez des crypto-monnaies pour investir, appâté par des mots à la mode marketing comme “stratégie exclusive alimentée par l'IA” – mais c'est un système de Ponzi. Les premiers “investisseurs” pourraient récupérer un peu pour prouver que cela fonctionne, mais finalement les opérateurs disparaissent avec la majeure partie des fonds, laissant derrière eux un site Web élégant et aucune responsabilité.

Pendant la frénésie autour de ChatGPT de 2023–2024, des dizaines de nouveaux tokens et plateformes de cryptos ont émergé en revendiquant un angle basé sur l'IA. Bien que certains soient des projets légitimes, beaucoup étaient des arnaques pures et simples ou des systèmes de pump-and-dump. Les fraudeurs annonçaient un token lié au développement de l'IA, voyaient les fonds affluer des investisseurs excités, puis abandonnaient le projet (un "rug pull" classique). L'idée de l'IA suffisait à gonfler la valeur d'un token avant le crash. Nous avons également vu des fausses nouvelles être utilisées comme arme : des vidéos deepfake d'Elon Musk et d'autres ont été utilisées pour approuver une “plateforme de trading crypto utilisant l'IA” (comme mentionné précédemment) pour inciter les victimes à investir. Par exemple, une vidéo deepfake incitait les gens à investir dans une plateforme en prétendant qu'elle utilisait l'IA pour garantir des bénéfices dans le trading – ce qui n'existait pas du tout. Ces schémas combinaient souvent la confiance dans une célébrité avec la mystique de la technologie IA pour paraître crédibles.

Non seulement les escrocs mentent sur la possession d'une IA, certains utilisent en fait l'IA pour renforcer l'illusion. TRM Labs a noté un système pyramidal majeur en 2024 nommé MetaMax qui prétendait offrir de hauts rendements pour l'engagement avec du contenu sur les médias sociaux. Pour paraître légitime, le site de MetaMax affichait un PDG et une équipe – mais le “PDG” n'était qu'un avatar généré par l'IA créé avec la technologie deepfake. Autrement dit, il n'y avait pas de vraie personne, juste une image d'IA et peut-être une voix d'IA, assurant aux investisseurs que MetaMax était la prochaine grande chose. Le schéma a tout de même réussi à encaisser près de 200 millions de dollars (principalement de victimes aux Philippines) avant de s'effondrer. Un autre site d'escroquerie, babit.cc, est allé jusqu'à générer des photos de tout le personnel via l'IA au lieu d'utiliser des photos volées de personnes réelles. Bien que l'on puisse remarquer une certaine perfection inquiétante dans ces images, chaque mois qui passe rend les visages générés par l'IA plus réalistes. Il est facile de voir comment les futurs sites d'escroquerie pourraient avoir une distribution complète de prétendus cadres crédibles – aucun d'entre eux n'existe en réalité.

Comment éviter les arnaques d'investissements basées sur l'IA : Approchez toute opportunité d'investissement “trop belle pour être vraie” avec une extrême prudence – surtout si elle vante beaucoup des capacités IA sans détails clairs. Faites vos devoirs : Si un projet prétend utiliser l'IA, y a-t-il une documentation légitime ou une équipe expérimentée derrière cela? Soyez méfiant si vous ne trouvez aucune information vérifiable sur les fondateurs (ou si la seule information est des profils créés par l'IA). Ne faites jamais confiance aux recommandations de célébrités dans l'espace crypto à moins que ce soit confirmé par des canaux officiels; 99 % du temps, des personnes comme Musk, CZ ou Vitalik ne donnent pas des conseils de trading ou des offres de doublement de fonds au hasard. Si un robot de trading IA est si performant, demandez pourquoi ses créateurs vendent l'accès à bas prix ou le commercialisent sur Telegram – ne l'utiliseraient-ils pas simplement en privé pour s'enrichir? Cette vérification logique révèle souvent l'arnaque. De plus, rappelez-vous que les rendements garantis = drapeau rouge. Peu importe à quel point un algorithme est sophistiqué, les marchés crypto comportent des risques. Les entreprises légitimes seront claires concernant les risques et ne promettront pas de rendements élevés fixes. En tant qu'investisseur, considérez que les escrocs aiment les mots à la mode – “alimenté par l'IA, quantique, garanti, algorithme secret” – ce sont des appâts pour les crédules. Restez sur des plateformes et échanges connus, et si vous êtes tenté par un nouveau projet, n'investissez que ce que vous pouvez vous permettre de perdre après avoir effectué des vérifications indépendantes. En cas de doute, cherchez des avis de voix fiables dans la communauté. Souvent, un post rapide sur un forum ou Reddit à propos de “Quelqu'un a-t-il entendu parler du robot IA XYZ?” fera remonter des avertissements s'il s'agit d'une fraude. En résumé, ne laissez pas la peur de rater les avancées de l'IA obscurcir votre jugement – la seule chose “automatisée” dans beaucoup de ces arnaques est le vol de votre argent.

6. Identités Synthétiques et Contournement KYC avec l'IA

Les arnaques liées aux cryptomonnaies impliquent souvent un réseau d'identités fictives – pas seulement les personnes se faisant passer pour des victimes, mais aussi les comptes et entités utilisés par les escrocs. L'IA permet maintenant aux fraudeurs de générer des identités synthétiques à la demande, contournant les mesures de vérification destinées à éliminer les imposteurs. Cela a deux implications majeures : (1) Les escrocs peuvent ouvrir des comptes sur des plateformes d'échange ou des services sous de faux noms plus facilement, et (2) ils peuvent conférer une apparence de légitimité à leurs sites d'escroquerie en les peuplant de « membres de l'équipe » générés par l'IA ou de témoignages.

Du côté de la conformité, de nombreuses plateformes crypto exigent des vérifications KYC (Connaître son client) – par exemple, télécharger une pièce d'identité et un selfie. En réponse, les criminels ont commencé à utiliser des outils d'IA pour créer de fausses pièces d'identité et des selfies falsifiés qui peuvent passer ces contrôles. Une approche courante consiste à utiliser des générateurs d'images IA ou des techniques de deepfake pour combiner des éléments de vraies pièces d'identité ou synthétiser l'apparence d'une personne correspondant au nom sur une pièce d'identité volée. Un récent article dans Decrypt a rapporté des personnes utilisant une IA de base pour générer de fausses images de permis de conduire pour tromper les échanges et les banques. Même les vérifications biométriques ne sont pas sûres : l'IA peut produire une vidéo réaliste d'une personne tenant une pièce d'identité ou effectuant le mouvement requis par le système. Essentiellement, un escroc pourrait être assis à son ordinateur et faire manipuler une personne fictive par une IA pour ouvrir des comptes. Ces comptes sont ensuite utilisés pour blanchir des cryptos volés ou pour monter des plateformes d'escroquerie. Quand les enquêteurs réalisent que “John Doe”, qui a retiré des millions, n'est pas réel, la piste est froide.

De même, lors de la promotion d'arnaques, avoir de fausses identités “vérifiées” aide. Nous avons abordé les PDG générés par l'IA dans la section 5 – c'est une partie d'une tendance plus large. Les escrocs peuvent peupler LinkedIn d'employés qui n'existent pas (en utilisant des photos générées par l'IA et des CV auto-générés), créer de fausses critiques d'utilisateurs avec des photos de profil générées par GAN, et même générer de faux agents de service clientèle. Certains victimes ont rapporté avoir discuté avec ce qu'ils pensaient être un représentant du support d'un échange (peut-être via une fenêtre de chat pop-up sur un site de phishing), et l'agent avait un avatar et un nom réalistes. Ils ne savaient pas qu'il s'agissait probablement d'un bot IA soutenu par une personne fictive. ThisPersonDoesNotExist (un outil IA qui génère des visages réalistes aléatoires) a été une aubaine pour les fraudeurs – chaque fois qu'un compte ou un profil d'escroquerie est signalé, ils génèrent simplement un nouveau visage unique pour le suivant, ce qui rend difficile pour les filtres anti-spam de garder le rythme.

Même en dehors des arnaques ciblant les utilisateurs finaux, la fraude identitaire assistée par IA facilite les crimes. Des groupes organisés utilisent les deepfakes pour tromper les procédures de vidéo-KYC des banques, leur permettant de créer des comptes mules ou des comptes d'échange qui peuvent convertir des crypto en liquidités sous une fausse identité. Dans un cas, Europol a noté que des criminels utilisaient l'IA pour contourner les systèmes d'authentification vocale des banques en imitant les voix des titulaires de comptes. Et la police observe maintenant des preuves que les bénéfices des escroqueries de crypto financent ces « kits d'identité » d'IA – TRM Labs a tracé des cryptos d’arnaques à des fournisseurs de services IA, probablement pour l'achat d'outils de deepfake ou de fausse pièce d'identité. C'est un écosystème criminel complet : acheter une fausse identité, l'utiliser pour mettre en place une infrastructure d'escroquerie, voler de l'argent, le blanchir via des échanges ouverts avec plus de fausses pièces d'identité.

Comment se défendre contre les arnaques avec identités synthétiques : Pour les utilisateurs individuels, cela concerne moins quelque chose que vous pourriez rencontrer directement et beaucoup plus la prise de conscience que des photos ou des « documents » peuvent être falsifiés. Si vous traitez avec une nouvelle plateforme ou service crypto, faites preuve de diligence : L'équipe est-elle réelle et vérifiable ? Si vous appelez en vidéo un “conseiller financier” et que quelque chose semble étrange (par exemple, des légères bizarreries sur le visage), considérez qu'il se pourrait qu'ils ne soient pas ce qu'ils prétendent. Pour les entreprises, la responsabilité incombe au renforcement des vérifications KYC et de la détection des fraudes – par exemple, utiliser l'IA pour combattre l'IA, comme vérifier si une photo d'identité est générée ou si un selfie est un deepfake (il existe des algorithmes pouvant détecter des artefacts subtils). En tant qu'utilisateur, un conseil concret est de protéger vos propres données d'identité. Les escrocs entraînent souvent leurs modèles deepfake sur toutes les informations qu'ils peuvent trouver sur vous en ligne. Limiter ce que vous partagez (par exemple, ne publiez pas de vidéos de vous-même publiquement si possible, et gardez vos profils privés) peut réduire le matériau brut disponible pour les mauvais acteurs. De plus, activez et insistez sur des mesures de sécurité au-delà des simples vérifications d'identité – par exemple, certaines banques vous demanderont de confirmer une phrase aléatoire en vidéo (ce qui est plus difficile pour un deepfake à faire à la volée, bien que pas impossible). En fin de compte, comme le suggère Altman, la façon dont nous vérifions l'identité doit évoluer. La vérification multifactorielle et continue (pas seulement une capture instantanée) est plus sûre. Pour l'instant, en tant que consommateur, préférez les services ayant une sécurité robuste et soyez sceptique si un individu ou un site exige vos documents ou informations personnels sans raison solide. Si vous soupçonnez qu'un compte ou profil est faux (peut-être un profil social tout neuf vous contactant au sujet d'un investissement crypto), péchez par prudence et désengagez. Moins vous laissez d'opportunités aux escrocs pour utiliser de fausses identités sur vous, mieux c'est.

7. Bots de Réseaux Sociaux Alimentés par l'IA et Usurpateurs

Les escrocs crypto prospèrent depuis longtemps sur les réseaux sociaux, de Twitter et Facebook à Telegram et Discord. Désormais, l'IA améliore considérablement les bots et faux comptes qui facilitent ces escroqueries, les rendant plus efficaces et plus difficiles à distinguer des utilisateurs réels. Si vous avez déjà tweeté à propos de crypto et reçu des réponses instantanées...Translation:

Note: Skip translation for markdown links.

Offerant “soutien” ou voyant des demandes d’ami aléatoires de personnes attirantes s’intéressant à la cryptomonnaie, vous avez probablement rencontré ce problème. L’IA permet aux escrocs de déployer des armées de bots plus crédibles que jamais.

D’une part, l’IA générative permet à chaque bot d’avoir une “personnalité” unique. Au lieu de 1 000 bots publiant tous le même commentaire en anglais approximatif sur un cadeau, chacun peut désormais produire des messages uniques et cohérents qui s’en tiennent à un script sans répétition évidente. Ils peuvent même participer à des conversations. Par exemple, sur les forums de crypto ou les groupes Telegram, un bot IA peut s’infiltrer en s’intégrant, discutant de manière décontractée des marchés ou des derniers NFTs, construisant une crédibilité au sein de la communauté. Ensuite, lorsqu’il envoie un DM à quelqu’un avec une “grande opportunité” ou un lien de phishing, la cible est moins méfiante car elle a vu ce compte se comporter “normalement” dans le groupe depuis des semaines. L’IA peut également générer des photos de profil réalistes pour ces bots (en utilisant des GAN ou similaires), de sorte que vous ne pouvez pas simplement effectuer une recherche d’image inversée pour attraper une photo volée. De nombreux comptes Twitter frauduleux arborent aujourd’hui des photos de profil créées par l’IA – souvent d’une personne attrayante, d’apparence amicale – sans les dysfonctionnements révélateurs que les images IA plus anciennes avaient. Même les biographies et les messages sont écrits par l’IA pour sembler authentiques.

L’usurpation d’identité de comptes légitimes est un autre domaine où l’IA aide. Nous avons touché à l’usurpation d’identité par vidéo/voix deepfake, mais sur les plateformes basées sur le texte, l’imposteur pourrait simplement copier le profil d’un personnage connu ou d’un service d’assistance. L’IA peut aider en produisant rapidement en masse des comptes semblables (poignées légèrement mal orthographiées, par exemple) et en générant du contenu qui correspond au ton du compte officiel. Lorsque les victimes envoient des messages à ces faux comptes d’assistance, les chatbots IA peuvent gérer l’interaction, les guidant à travers des étapes de “vérification” qui volent en réalité des informations. Ce type de phishing conversationnel est beaucoup plus facile à échelonner avec l’IA. Dans une arnaque notable, les utilisateurs d’une communauté Discord ont reçu des messages privés de ce qui ressemblait à un administrateur offrant de l’aide pour réclamer un airdrop ; un IA a probablement alimenté ces conversations pour guider de manière convaincante les utilisateurs à travers la connexion de leurs portefeuilles – directement dans un piège qui a volé leurs jetons. Chainalysis a rapporté que des chatbots IA ont infiltré des groupes populaires de crypto Discord/Telegram, usurpant l'identité de modérateurs et amenant les gens à cliquer sur des liens malveillants ou à divulguer des clés de portefeuille. Les bots peuvent même répondre en temps réel si quelqu’un les interroge, en utilisant un langage naturel, ce qui brouille certains indices habituels (comme un long décalage ou une réponse hors sujet).

L’échelle est stupéfiante - un seul escroc (ou une petite équipe) peut gérer efficacement des centaines de ces personnages animés par l’IA en parallèle. Ils pourraient utiliser des agents IA qui surveillent les médias sociaux pour certains mots-clés (comme “mot de passe oublié MetaMask”) et répondent automatiquement ou envoient un DM à l’utilisateur avec un message d’arnaque préparé. Avant l’IA, ils auraient dû le faire manuellement ou utiliser des scripts grossiers qui étaient facilement signalés. Maintenant, c’est tout plus adaptatif. Nous voyons également l’usage de l’IA pour générer de fausses interactions : des milliers de commentaires et de likes de comptes bots pour faire paraître un post d’arnaque ou un jeton d’arnaque populaire. Par exemple, une ICO frauduleuse pourrait avoir des dizaines d’"investisseurs" sur Twitter (tous des bots) louant le projet et partageant leurs supposés profits. Quiconque cherche le projet voit un bavardage positif et pourrait être trompé en pensant que c’est un engouement légitime de la base.

Comment combattre les escroqueries de bots sur les médias sociaux : Premièrement, reconnaissez les signes d’activité de bot. Si vous recevez une réponse générique instantanément dès que vous mentionnez un problème de crypto en ligne, présumez qu’elle est malveillante. Ne cliquez jamais sur des liens aléatoires envoyés par quelqu’un qui vous a contacté non sollicité, même si sa photo de profil est belle. Vérifiez attentivement les profils : Quand a-t-il été créé ? A-t-il un historique de publications normales ou est-il principalement promotionnel ? Souvent, les bots ont des comptes tout neufs ou des rapports de followers/suivis étranges. Sur Telegram/Discord, ajustez vos paramètres de confidentialité pour ne pas autoriser les messages des membres avec lesquels vous ne partagez pas un groupe, ou soyez au minimum méfiant envers quiconque vous envoie un message de manière inattendue. L’assistance officielle vous enverra rarement un DM en premier. Si quelqu’un usurpe l’identité d’un administrateur, notez que les administrateurs réputables ne mèneront généralement pas d’assistance via DM – ils vous dirigeront vers les canaux d’assistance officiels. Si un compte Twitter prétend être l’assistance pour un portefeuille ou un échange, vérifiez la poignée contre la poignée connue de l’entreprise (les escrocs aiment échanger un “0” pour “O”, etc.). Utilisez les outils de la plateforme : la vérification payante de Twitter est imparfaite, mais l’absence de chèque bleu sur un supposé “Binance Support” est désormais révélateur. Pour Discord, les communautés ont parfois des outils de détection de bots – prêtez attention aux avertissements des administrateurs concernant les arnaques et les bots.

En tant qu’utilisateurs, l’une des meilleures défenses est un scepticisme sain concernant les “étrangers amicaux” offrant de l'aide ou de l’argent en ligne. Les vraies personnes peuvent être gentilles, mais dans la sphère sociale crypto, l’aide non sollicitée est plus probablement une arnaque. Donc, si vous êtes désemparé par un problème de crypto, résistez à l'envie de faire confiance à la première personne qui vous envoie un DM affirmant pouvoir le résoudre. Au lieu de cela, rendez-vous sur le site officiel du service en question et suivez leur processus d’assistance. En niant aux escrocs cet engagement initial, tout l’avantage des bots IA est annulé. Enfin, signalez et bloquez les comptes de bots évidents – de nombreuses plateformes améliorent leur détection d’IA basé sur les signalements des utilisateurs. C’est une course aux armements en cours : IA contre IA, les plateformes déployant des algorithmes de détection pour contrer les bots malveillants. Mais jusqu’à ce qu’elles y parviennent parfaitement, rester vigilant et ne pas s’engager avec des bots probables contribuera grandement à protéger votre crypto.

8. Escroqueries par “Agent” Autonome – La Prochaine Frontière

En regardant vers l'avenir, la perspective la plus inquiétante est celle des opérations d’escroquerie entièrement automatisées – des agents IA qui mènent des escroqueries de bout en bout avec un minimum d’intervention humaine. Nous voyons déjà les premiers signes de cela. Un agent IA est essentiellement un programme logiciel qui peut prendre des décisions et effectuer des tâches en plusieurs étapes par lui-même (souvent en invoquant d'autres modèles ou outils logiciels d'IA). Les agents récemment annoncés par OpenAI propulsés par ChatGPT pouvant naviguer, utiliser des applications et agir en ligne comme un humain ont suscité à la fois excitation et inquiétude. Les escrocs lorgnent sans aucun doute ces capacités pour amplifier leurs fraudes à de nouveaux sommets.

Imaginez un agent IA conçu pour la fraude : Il pourrait scruter les médias sociaux pour des cibles potentielles (disons, des personnes postant sur l’investissement en crypto ou des besoins de support technique), initier automatiquement le contact (via DM ou e-mail), mener une conversation réaliste en s’appuyant sur toutes les données qu’il a recueillies sur la personne, et les guider vers un résultat d’escroquerie (comme les conduire vers un site de phishing ou les convaincre d’envoyer des cryptos). Tout en ajustant ses tactiques en cours de route – si la victime semble sceptique, l’IA peut changer de ton ou essayer une autre histoire, comme le ferait un escroc humain. Sauf que cet IA peut jongler avec des centaines de victimes simultanément sans fatigue, et opérer 24/7. Ce n'est pas de la science-fiction ; des composants de cela existent déjà. En fait, TRM Labs avertit que les escrocs utilisent des agents IA pour automatiser la sensibilisation, la traduction, et même le blanchiment d’argent – par exemple, en résumant la présence sur les réseaux sociaux d’une cible pour personnaliser l’escroquerie, ou en optimisant les scripts d’escroquerie en analysant ce qui a fonctionné sur les victimes passées. On parle aussi d’agents “persona de victime” qui simulent une victime pour tester de nouvelles techniques d'escroquerie en toute sécurité. C’est un usage sournois de l’IA – les escrocs testant des escroqueries sur des IA avant de les déployer sur vous.

Du côté technique, un agent IA peut s'intégrer avec divers outils : envoyer des e-mails, passer des appels VoIP (avec des voix IA), générer des documents, etc. Nous pourrions bientôt faire face à des escroqueries téléphoniques automatisées où une voix IA vous appelle en prétendant être du département de fraude de votre banque et converse intelligemment. Ou une IA qui prend le contrôle d'un compte email piraté et discute avec les contacts de la victime pour demander de l’argent. Les combinaisons sont infinies. L’avertissement sévère de Sam Altman sur les AIs adversariales qui pourraient “prendre l’argent de tout le monde” parle de ce scénario. Quand l’IA peut fonctionner sur plusieurs plateformes – peut-être en utilisant une instance GPT pour parler à la victime, une autre pour pirater des mots de passe faibles, une autre pour transférer des fonds une fois les informations d'identification obtenues – cela devient une chaîne de montage de fraude à efficacité surhumaine. Et contrairement aux criminels humains, une IA ne devient pas négligente et n’a pas besoin de sommeil.

Il convient de noter que les experts en sécurité et les forces de l'ordre ne restent pas les bras croisés. Ils explorent des solutions IA pour contrer les menaces IA (plus à ce sujet dans la prochaine section). Mais la réalité est que la scalabilité des escroqueries dirigées par l’IA mettra au défi les défenses existantes. La détection de fraude héritée (règles simples, mots-clés mauvais connus, etc.) pourrait échouer contre une IA qui produit des attaques toujours variées et conscientes du contexte. Un grand effort coordonné – impliquant des entreprises technologiques, des régulateurs, et les utilisateurs eux-mêmes – sera nécessaire pour atténuer cela. Les régulateurs ont commencé à discuter de l’imposition d’étiquettes sur le contenu généré par IA ou de meilleures méthodes de vérification d'identité pour contrer les deepfakes. En attendant, des approches de confiance zéro (ne pas faire confiance, toujours vérifier) seront cruciales au niveau individuel.

Se protéger à l’ère des agents IA : De nombreux conseils déjà donnés restent votre meilleure protection – scepticisme, vérification indépendante, ne pas partager excessivement de données que les agents peuvent exploiter, etc. Quand les agents IA apparaissent, vous devriez élever votre suspicion pour toute interaction qui semble légèrement “décalée” ou trop formelle. Par exemple, une IA pourrait gérer la majeure partie d'une discussion d'escroquerie mais trébucher sur une question inattendue – si quelqu’un ignore une question personnelle et continue d’insister sur son scénario, méfiez-vous. Continuez d’utiliser une authentification multi-facteurs (MFA) sur vos comptes ; même si une IA vous trompe en révélant un mot de passe, un second facteur (et surtout une clé de sécurité physique) peut l’empêcher de se connecter. Surveillez de près vos comptes financiers pour des actions non autorisées – l’IA peut initier des transactions, mais si vous les détectez rapidement, vous pourriez les annuler ou les inverser. Сlaim the authenticity of critical communications: if "your bank" emails or calls, tell them you will Format result as follows:

  • Skip translation for markdown links.

Translation:

Une institution authentique refusera cela. En tant que consommateurs, nous pourrions également voir émerger de nouveaux outils (peut-être pilotés par l'IA) pour vérifier le contenu – par exemple, des plugins de navigateur qui peuvent signaler les textes suspects générés par l'IA ou les vidéos deepfake. Se tenir informé de ces technologies de protection et les utiliser contribuera à égaliser les chances.

En fin de compte, dans cette course aux armements de l'IA, la vigilance humaine est primordiale. En reconnaissant que la personne à l'autre bout pourrait ne pas être une personne du tout, vous pouvez ajuster votre niveau de confiance en conséquence. Nous entrons dans une époque où vous ne pouvez vraiment pas prendre les interactions numériques pour argent comptant. Bien que cela soit perturbant, en être conscient représente déjà la moitié du combat. Les escroqueries peuvent être automatisées, mais si vous automatisez votre scepticisme en réponse – en traitant chaque demande non sollicitée comme malveillante jusqu'à preuve du contraire – vous obligez même l'IA la plus intelligente à franchir une barre très haute pour vous tromper.

9. Comment les autorités et l'industrie ripostent

Ce n'est pas tout noir – la même technologie de l'IA qui permet aux escrocs peut être utilisée pour détecter et prévenir la fraude, et il y a un effort concerté en cours pour le faire. Les entreprises d'analyse de la blockchain, les entreprises de cybersécurité et les forces de l'ordre utilisent de plus en plus l'IA et l'apprentissage automatique pour contrer la vague d'escroqueries cryptographiques alimentées par l'IA. C'est un classique du chat et de la souris. Voici comment les "gentils" réagissent :

  • Détection d'escroqueries par l'IA : Des entreprises comme Chainalysis et TRM Labs ont intégré l'IA dans leurs plateformes de suivi pour détecter les schémas indicatifs d'escroqueries. Par exemple, les modèles d'apprentissage automatisé analysent le texte de millions de messages pour identifier des indices linguistiques de génération par l'IA ou de manipulation sociale. Ils surveillent également les comportements on-chain – un rapport a noté que près de 60 % des dépôts dans des portefeuilles d'escroquerie sont désormais liés à l'utilisation de l'IA. En identifiant les portefeuilles qui paient pour des services d'IA ou qui présentent des schémas de transactions automatisées, les enquêteurs peuvent signaler les opérations d'escroquerie potentielles tôt. Certaines solutions anti-phishing utilisent la vision par l'IA pour reconnaître les faux sites (en scannant les différences de pixels au niveau des logos ou de légères différences de domaine) plus rapidement que les examens manuels.

  • Améliorations de l'authentification : À la lumière des commentaires d'Altman selon lesquels la voix et la vidéo ne peuvent pas être fiables, les institutions se dirigent vers une authentification plus robuste. Les biométriques peuvent passer à des choses comme les empreintes de dispositifs ou les biométriques comportementales (comment vous tapez ou balayez) qui sont plus difficiles pour l'IA à imiter en masse. Les régulateurs incitent les banques et les plateformes d'échange à mettre en œuvre des vérifications multifactorielle et hors bande pour les transferts importants – par exemple, si vous demandez un gros retrait en crypto, peut-être un appel vidéo en direct où vous devez effectuer une action aléatoire, rendant plus difficile pour un deepfake de répondre correctement. La Fed et d'autres agences discutent des normes pour détecter les tentatives d'imitation par l'IA, stimulées par des cas comme l'escroquerie au deepfake de CFO de 25 millions de dollars.

  • Campagnes de sensibilisation : Les autorités savent que l'éducation du public est cruciale. Le FBI, Europol et d'autres ont publié des alertes et organisé des webinaires pour informer les gens sur les tactiques d'escroquerie par l'IA. Cela inclut des conseils pratiques (dont nous avons repris beaucoup dans cet article) tels que comment repérer les artefacts deepfake ou le texte généré par l'IA suspect. Plus les gens savent quoi rechercher, moins les escroqueries sont efficaces. Certaines juridictions envisagent même des avertissements obligatoires – par exemple, exiger que les publicités politiques divulguent le contenu généré par l'IA ; ces politiques pourraient également s'étendre aux promotions financières.

  • Mesures légales et politiques : Tandis que la technologie progresse rapidement, on parle de durcir les lois sur l'abus deepfake. Quelques États américains ont des lois contre les deepfakes utilisés lors des élections ou l'usurpation de l'identité de quelqu'un dans un crime, ce qui pourrait être appliqué aux cas d'escroqueries. Les régulateurs examinent également la responsabilité des fournisseurs d'outils d'IA – si un produit comme WormGPT est clairement conçu pour le crime, peuvent-ils poursuivre ses créateurs ou utilisateurs ? En parallèle, les entreprises d'IA mainstream travaillent sur le marquage des sorties générées par l'IA ou fournissent des moyens de vérifier l'authenticité (OpenAI, par exemple, a recherché le marquage cryptographique du texte de GPT). Cela pourrait aider à distinguer le vrai de l'IA si largement adopté.

  • Collaboration et partage d'informations : Un point positif est que la menace des escroqueries par l'IA a galvanisé la coopération. Les plateformes d'échange de crypto, les banques, les plateformes technologiques et les forces de l'ordre ont partagé des données sur les adresses des escrocs, les tactiques de deepfake connues et les tendances du phishing. Par exemple, si une plateforme d'échange remarque un compte probablement ouvert avec de faux identifiants, elle pourrait alerter d'autres ou les forces de l'ordre, empêchant ainsi cette même identité d'être réutilisée ailleurs. Après des incidents majeurs, les groupes industriels mènent des rétrospectives pour apprendre comment l'IA a été utilisée et diffuser des stratégies d'atténuation.

  • Soutien aux victimes et intervention : Reconnaissant que de nombreuses victimes sont trop embarrassées pour signaler (rappelons que seulement environ 15 % signalent des pertes), certaines agences sont devenues proactives. L'opération Level Up du FBI en 2024 a effectivement identifié des milliers de victimes probables de "pig butchering" avant même qu'elles ne se rendent compte qu'elles avaient été escroquées, en analysant les flux financiers, et parvint à prévenir 285 millions de dollars de pertes supplémentaires en les avertissant à temps. En d'autres termes, une meilleure détection a permis une intervention en temps réel. Plus d'initiatives de ce type, peut-être aidées par l'IA, peuvent sauver des victimes potentielles en repérant les schémas d'escroqueries plus tôt dans le cycle (par exemple, des transactions répétitives inhabituelles vers une plateforme frauduleuse).

Finalement, vaincre les escroqueries assistées par l'IA nécessitera un effort collectif : défenses technologiques, utilisateurs informés, réglementations mises à jour, et coopération transfrontalière des forces de l'ordre. Bien que les escrocs aient prouvé leur habileté à intégrer l'IA dans leur flux de travail, les contre-mesures s'intensifient en parallèle. C'est une bataille continue, mais pas perdue. En restant conscient à la fois des menaces et des solutions émergentes, la communauté crypto peut s'adapter. Pensez-y de cette façon – oui, les escrocs ont de puissants nouveaux outils, mais nous aussi. L'IA peut aider à passer au crible d'énormes quantités de données pour trouver l'aiguille dans la botte de foin (comme le regroupement de réseaux de portefeuilles d'escroqueries ou la détection de contenu deepfake). Elle peut aussi aider à éduquer, à travers des simulations de formation alimentées par l'IA qui enseignent aux gens comment répondre aux tentatives d'escroquerie.

10. Se protéger : Points clés pour rester en sécurité

Ayant exploré les nombreuses façons dont l'IA est abusée pour voler des crypto, distillons quelques conseils pratiques de protection. Ce sont les habitudes et précautions qui peuvent faire de vous une cible difficile, même si les escroqueries évoluent :

  • Soyez sceptique des contacts non sollicités : Qu'il s'agisse d'un appel vidéo inattendu d'un "ami", d'un message direct offrant de l'aide ou d'un e-mail sur une opportunité d'investissement, supposez que cela pourrait être une arnaque. C'est triste de devoir penser ainsi, mais c'est la première ligne de défense. Traitez chaque nouveau contact ou demande urgente comme potentiellement frauduleux jusqu'à ce qu'il soit vérifié via un canal secondaire.

  • Vérifiez identités de plusieurs manières : Si vous recevez une communication soi-disant d'une personne ou d'une entreprise connue, confirmez-la par une autre méthode. Appelez la personne à un numéro connu, ou envoyez un e-mail à l'adresse de support officielle du site de l'entreprise. Ne vous fiez pas aux infos de contact fournies dans le message suspect – cherchez-les indépendamment.

  • Prenez le temps et examinez le contenu : Les escrocs (humains ou IA) comptent sur le fait de vous prendre au dépourvu. Prenez un moment pour analyser les messages et les médias. Cherchez les signes subtils de deepfakes (artefacts visuels étranges, problèmes de synchronisation des lèvres) et de phishing (domaines mal orthographiés, demandes inhabituelles d'informations d'identification). Si quelque chose semble même légèrement "injuste" compte tenu du message prétendant provenir d'une source connue, faites confiance à votre instinct et enquêtez plus loin.

  • Utilisez des mesures de sécurité solides : Activez l'authentification à deux facteurs (2FA) pour tous les comptes et e-mails de crypto. Préférez l'application ou le matériel 2FA plutôt que le SMS si possible (les attaques par échange de SIM sont un autre risque). Envisagez d'utiliser un portefeuille matériel pour des avoirs importants – même si un escroc vous trompe, il ne peut pas déplacer des fonds sans l'appareil physique. Gardez vos appareils sécurisés avec des logiciels à jour et des antivirus, pour vous protéger contre tout malware qui pourrait passer entre les mailles du filet.

  • Gardez vos informations personnelles privées : Moins les escrocs peuvent apprendre sur vous en ligne, moins leur IA a de matière à exploiter. Ne partagez pas de détails sensibles sur les forums publics (comme l'e-mail, le téléphone, les infos financières). Soyez prudent avec ce que vous publiez sur les réseaux sociaux – ces mises à jour personnelles amusantes ou ces extraits audio peuvent être exploités par l'IA (par exemple, pour entraîner un clone vocal). Vérifiez également les paramètres de confidentialité pour limiter qui peut vous envoyer des messages ou voir votre contenu.

  • Éduquez-vous et les autres : Restez informé des dernières tendances en matière d'escroquerie. Lisez sur les nouvelles techniques deepfake ou les stratégies de phishing pour pouvoir les reconnaître. Partagez ces connaissances avec vos amis et votre famille, surtout ceux moins à l'aise avec la technologie, qui pourraient être encore plus à risque. Par exemple, expliquez à vos proches âgés que l'IA peut maintenant créer des fausses voix, donc ils doivent toujours vérifier un appel d'urgence. Empowerer ceux qui vous entourent à être plus vigilants.

  • Utilisez des sources fiables et des applications officielles : Lors de la gestion de crypto, restez sur les applications et sites web officiels. Ne suivez pas les liens qui vous sont envoyés – tapez manuellement l'URL de l'échange ou du portefeuille. Si vous explorez de nouveaux projets ou bots, recherchez minutieusement leur crédibilité (cherchez des avis, des nouvelles, l'expérience de l'équipe). Téléchargez des logiciels uniquement à partir des magasins officiels ou du site du projet, pas à partir de liens ou de fichiers envoyés au hasard.

  • Profitez des outils de sécurité : Considérez des extensions de navigateur ou des services qui bloquent les sites de phishing connus. Certains gestionnaires de mots de passe vous avertiront si vous êtes sur un domaine inconnu qui ne correspond pas au site sauvegardé. Les fournisseurs d'e-mails utilisent de plus en plus l'IA pour signaler les e-mails probablement frauduleux – prêtez attention à ces avertissements. Il existe aussi des outils émergents de détection de deepfake (pour les images/vidéos); bien qu'ils ne soient pas infaillibles, ils peuvent fournir une couche d'assurance supplémentaire si vous y soumettez une vidéo suspecte.

  • Faites confiance, mais vérifiez – ou mieux encore, adoptez une approche de zéro confiance : Dans la crypto, une dose saine de paranoïa peut sauver vos actifs. Si un scénario se présente où vous devez faire confiance à quelqu'un (par exemple, un commerce en OTC ou unSkip translation for markdown links.

Content: nouveau partenaire commercial), effectuez une diligence raisonnable approfondie et peut-être même insistez pour une réunion en personne pour les transactions importantes. Quand il s'agit de votre argent, il est acceptable de tout vérifier deux fois. Comme le dit le proverbe, « Ne faites pas confiance, vérifiez » – à l'origine à propos des transactions blockchain, cela s'applique désormais aussi aux communications.

  • Signalez et demandez de l'aide en cas de ciblage : Si vous rencontrez une tentative d'escroquerie, signalez-la aux plateformes (elles prennent des mesures pour supprimer les comptes malveillants) et à des sites comme Chainabuse ou des sites gouvernementaux de lutte contre la fraude. Cela aide la communauté et peut faciliter les enquêtes. Et si malheureusement vous devenez victime, contactez immédiatement les autorités – bien que le recouvrement soit difficile, un signalement précoce améliore les chances. De plus, votre cas pourrait fournir des renseignements précieux pour empêcher d'autres personnes de se faire escroquer.

En conclusion, la montée des arnaques cryptos alimentées par l'IA est un défi sérieux, mais pas insurmontable. En connaissant le plan de jeu de l'ennemi – deepfakes, clones de voix, chatbots IA, faux investissements IA, et plus encore – vous pouvez anticiper leurs mouvements et éviter les pièges. La technologie continuera d'avancer des deux côtés. Aujourd'hui, ce sont des vidéos de deepfake et des e-mails rédigés par GPT ; demain, il pourrait s'agir de tromperies encore plus sophistiquées. Pourtant, au fond, la plupart des arnaques vous incitent toujours à faire quelque chose contre vos intérêts – envoyer de l'argent, révéler un secret, contourner des protections. C'est votre signal pour faire une pause et appliquer les connaissances que vous avez acquises. Restez vigilant, restez informé, et vous pouvez déjouer même les arnaques les plus intelligentes pilotées par des machines. Votre défense la plus forte est finalement votre propre esprit critique. Dans un monde d'artifices, le vrai scepticisme est précieux.

Avertissement : Les informations fournies dans cet article sont à des fins éducatives uniquement et ne doivent pas être considérées comme des conseils financiers ou juridiques. Effectuez toujours vos propres recherches ou consultez un professionnel lorsque vous traitez avec des actifs en cryptomonnaies.
Derniers Articles de Recherche
Afficher Tous les Articles de Recherche