ウォレット

2025年のAI駆動型暗号詐欺トップ10と あなたの資金を守る方法

2025年のAI駆動型暗号詐欺トップ10と あなたの資金を守る方法

通常の暗号投資家は、高度な人工知能を持った詐欺師という新たな脅威に直面しています。AIが支援する暗号詐欺の増加 AIによる暗号詐欺 は昨年に比べて爆発的に増加しており、2024年半ばから2025年半ばにかけて生成AI支援の詐欺報告が456%増加しました。

詐欺師は今やAIを使用して、本物そっくりの偽ビデオや声、メッセージを作成し、彼らの暗号詐欺をこれまで以上に説得力のあるものにしています。FBIによると、2024年には約15万件の暗号関連詐欺の苦情が提出され、アメリカだけで報告された被害総額は39億ドルを超えました。世界的には、暗号詐欺の被害額は2024年に107億ドルを超えましたが、被害者のうち報告するのは推定15%に過ぎないので、これは氷山の一角かもしれません。

OpenAIのCEOであるSam Altmanも、AIの人間を模倣する能力が「ほとんどの認証法を完全に破った」と警鐘を鳴らしています。このため、「重大な詐欺危機が差し迫っている」とのことです。この記事では、業界を悩ませているトップ10のAI駆動型暗号詐欺を分解し、その手口を実例で説明し、重要なこととして、どのようにしてあなたを守るかを示します。

be87d68f-600e-4f3f-817f-24e725a46810.png

チャート: AIツールを含む暗号詐欺取引の割合は2021年から急増し、2025年には全ての詐欺入金アドレスの約60%がAI支援のスキームにリンクされています。これは、悪意のあるアクターがAIをどれほど迅速に採用し、詐欺を拡大しているかを反映しています。

1. ディープフェイク有名人支持詐欺(偽ビデオ&ストリーム)

最も多数のAI対応暗号詐欺の1つは、有名人物のディープフェイクによって行われる不正なプロモーションです。詐欺師は、著名なテックや暗号の人々をデジタル的に模倣し、偽のプレゼント企画や投資プラットフォームを広告します。たとえば、詐欺師は人気のあるYouTubeチャンネルを乗っ取り、Elon Musk(またはRippleのBrad GarlinghouseやMicroStrategyのMichael Saylorなどの他の暗号インフルエンサー)のドクトルビデオをライブストリームで流し、「ビットコインを倍にする」または他の非現実的な利益を約束するかのように見せかけます。実際には、ビデオと音声はAIによって操作されており、実際の人物はこれらの主張を行っていません。報酬を得ようと宣伝されたアドレスに暗号を送金した視聴者は単に盗まれます。

これは、有名人のインタビュークリップを用いた以前の暗号プレゼント企画詐欺の進化形です。今では、ディープフェイク技術により、新しい音声/ビデオコンテンツが挿入され、有名人が直接彼らの詐欺サイトを支持しているように見せかけます。これらの偽ライブストリームは、初見で非常に説得力があります。Chainabuse(公共詐欺報告サイト)は、2024年半ばに複数の被害者を数分で引き寄せ、詐欺師に多額の資金を得させたディープフェイクElon Muskストリームの報告を受けました。ブロックチェーン分析によれば、詐欺アドレスが2024年3月から2025年1月の間に被害者から少なくとも500万ドルを受け取り、別のディープフェイクMuskが「AIトレーディングプラットフォーム」を宣伝したスキームでは330万ドル以上を稼ぎました。サイバーセキュリティ企業Sensityの研究によれば、Muskは投資詐欺で最も一般的にディープフェイクされる有名人です。 Content: or illicit uncensored variants like “WormGPT” and “FraudGPT” – they can generate fluent, charming messages in any language, 24/7. This means one scammer can manage dozens of victims concurrently, with AI crafting individualized loving texts, market analysis, or whatever the script requires. In fact, a 2023 investigation by Sophos found pig butchering groups had begun using ChatGPT to write their chats; one victim even received a strange pasted message that accidentally revealed it was AI-generated. The error aside, LLMs let scammers “hyper-personalize” their approach – adjusting tone and content to perfectly suit each victim’s background and emotional state. The days of broken English or copy-paste scripts are over. With AI, the texts feel genuine, making victims even more susceptible to the eventual pitch.

Content: AI is also breaking the language barrier that once limited these scams. Originally, many pig butchering rings were based in Southeast Asia targeting Chinese-speaking victims. Expansion to Western victims was hampered by scammers’ weaker English skills – awkward grammar was often a red flag. Now, LLM-based translation and writing lets a non-native speaker seamlessly scam someone in English, German, Japanese, or any lucrative market. Scammers feed incoming messages to an AI for translation and reply generation, enabling them to pose as cosmopolitan investors or romantic partners even in languages they don’t speak. This has vastly expanded the pool of targets. Well-educated professionals in Europe or North America who might have dismissed clumsy scam messages can now receive polished, perfectly localized correspondence from an “attractive entrepreneur” who befriended them online. The result? More victims fattened up (like “pigs”) for the eventual slaughter.

Content: And let’s not forget deepfakes in pig butchering. While most of the grooming occurs via text, scammers sometimes schedule brief video calls to allay suspicions. Here they increasingly use face-swapped deepfake videos – for instance, a scammer may hire a woman to appear on camera but use AI to replace her face with the stolen photos they’ve been using in the profile. This “proof of life” strategy convinces the victim that their online sweetheart is real. (Some operations even advertise for “real face models” who, with the help of AI filters, appear as the victim’s dream partner on video.) Once trust is secured, the scammers direct victims to invest in bogus crypto platforms or “liquidity mining” programs, often showing fake profit screenshots to entice larger deposits. Victims have been known to refinance homes or drain 401(k)s under the illusion of a life together with their scammer or huge returns just ahead. It’s absolutely devastating – and AI only amplifies the deception.

Content: How to avoid pig butchering scams: Maintain a healthy skepticism about online-only relationships or mentorships that start randomly and become unusually intense. If someone you’ve never met in person is guiding you to invest in crypto or asking for financial help, that’s a glaring red flag. Reverse-image search profile pictures to see if they’re stolen (many pig-butchering scammers use photos of models or other victims). Be wary of video calls where the person’s camera is oddly low quality or they won’t fully show their face – they might be hiding a deepfake anomaly. Pressure to invest quickly or claims of insider knowledge are signs of a con. Also, remember legitimate investment professionals or romantic partners do not typically promise guaranteed profits. The FBI and other agencies have issued formal warnings about pig butchering and crypto romance scams – so educate yourself and others about how these scams operate. If you suspect someone might be a scammer, cut off contact and never send them money or crypto. And if you’ve been targeted, report it (anonymously if needed) to help authorities track these rings. Awareness is your best defense, so that no matter how slick the AI-driven sweet talk is, you won’t fall for the trap.

4. AI-Written Phishing Emails and Messages (Smarter Scams at Scale)

Content: Phishing – those fraudulent emails or texts that trick you into clicking a malicious link or giving up private information – has long been a numbers game. Scammers blast out thousands of generic messages (“Your account is at risk, login here...”) hoping a few people take the bait. Now, AI is making phishing far more convincing and more targeted. With tools like generative language models, attackers can easily craft personalized, fluent messages that mimic the style of genuine communications, dramatically upping their success rate.

Content: Large Language Models (LLMs) can generate phishing lures that are almost indistinguishable from a real email from your bank, crypto exchange, or friend. They eliminate the grammar mistakes and awkward phrasing that often gave away older scams. For example, an AI can be instructed to write an urgent email from “[Your Crypto Exchange] Security” warning you of a withdrawal and providing a link to “secure your account.” The text will be polished and on-brand. Scammers also use AI to scan your social media and tailor messages precisely – referencing recent transactions or naming a friend – a technique known as spear phishing. This level of customization used to take significant effort, but an AI agent can do it in seconds by scraping public data.

Content: There are even underground AI tools explicitly built for cybercrime. Since public models like ChatGPT have filters against illicit use, criminals have developed or bought black-market LLMs like “WormGPT” and “FraudGPT” that have no such restrictions. These malicious AIs, available on dark web forums, can output convincing phishing emails, malicious code, even step-by-step fraud advice. With a simple prompt, a scammer with limited English skills can produce a near-perfect email in any language, or generate a whole phishing website’s text content. According to cybersecurity training firm KnowBe4, by 2024 almost 74% of phishing emails they analyzed showed signs of AI usage – in other words, the majority of phishing attempts are now being turbocharged by AI’s writing capabilities.

Content: Beyond email, AI chatbots pose a threat in messaging platforms. Scammers can deploy bots in Telegram, Discord, WhatsApp, etc., that engage users in real-time conversation, luring them just as a human would. For instance, you might tweet about having an issue with your crypto wallet and promptly get a reply from a “support rep” (actually a bot) that DMs you. The AI, pretending to be customer service, then guides you through a fake “verification” that steals your keys. Because the chatbot can understand and respond naturally to your questions, you’re less likely to realize it’s fake. This kind of AI-driven social engineering can trick even tech-savvy users. In one case, scammers set up a fraudulent “investment assistant” chatbot that promised to help users trade crypto – it was nothing more than a trap to collect API keys and account info.

Content: Concept illustration of a digital scammer using AI. Phishing attacks and malware are increasingly aided by AI algorithms, which can generate realistic messages and even malicious code to steal passwords and crypto funds.

Content: Furthermore, AI can assist in hacking by producing malware code and automating attacks. For example, a criminal with minimal coding skill can ask an uncensored AI to write a program that empties crypto wallets or installs a keylogger to capture seed phrases. There have been reports of basic ransomware and infostealers created with AI help. While this crosses into hacking more than scamming, the lines blur – often a phishing email delivers malware. With AI’s help, criminals can pump out new malware variants faster than security teams can block them. And AI can help bypass security checks too: solving CAPTCHAs, generating fake IDs to pass verification (see Section 6), even cracking passwords by intelligently guessing (though strong cryptographic keys remain safe, weak ones do not). Sam Altman cautioned that even selfie ID checks and “voiceprint” logins have become trivial for AI to fool, meaning the authentication methods we rely on need urgent upgrading.

Content: How to stay safe from AI-powered phishers: The age-old advice still applies – never click suspicious links or download attachments from unknown senders, no matter how legit the message looks. Be on high alert for any communication (email, text, DM) that creates a sense of urgency or asks for your login credentials, 2FA codes, or seed phrase. Even if the formatting and language seem perfect, check the sender’s email/domain carefully – look for subtle errors or mismatched URLs (e.g. “binance.support.com” instead of the real domain). Confirm directly with the service or person if you get an unexpected request. Use official app/website channels rather than links provided in messages. On social platforms, distrust “support” that reaches out proactively; legitimate companies won’t ask for passwords via DM. Technically, enable phishing protections like email filters and web reputation tools – and keep your antivirus and software updated to catch malware. Most importantly, maintain a skeptical mindset. If you’re being pushed to act quickly or divulge info, that’s your cue to slow down and verify. By treating all unsolicited messages with caution, you can outsmart even AI-crafted scams. Remember, no genuine company or friend will mind if you take an extra minute to confirm authenticity – only scammers press for instant action.

5. Fake “AI Trading” Bots and Platforms (The AI Hype Investment Scam)

Content: The frenzy around artificial intelligence hasn’t just benefited scammers operationally – it’s also become the bait itself. In the past couple of years, there’s been a surge in fraudulent crypto projects and trading schemes that tout AI as their secret sauce. Scammers know that average investors are intrigued by AI’s potential to以下の内容を英語から日本語に翻訳します。
Markdownリンクに関しては翻訳をスキップしてください。

内容: 利益を生み出す。そのため、偽のAI搭載の取引ボット、シグナルグループ、またはDeFiプラットフォームを作成し、いくつかの高度なアルゴリズムを通じて保証された利益を約束しますが、実際には中身のないまやかしです。

一般的な手口の一つが「AI取引ボット」詐欺です:テレグラムやRedditを通じて、AIを活用して仮想通貨を取引して大きな利益を得るというボットの使用を勧誘されます。ボットはシミュレーション結果やテストアカウントを使ったデモを見せ、いくつかの利益を得る取引を行うかもしれません。しかし、自分の資金をボットにデポジットすると、それは損失を出し始めるか、詐欺師が単にお金を持って逃げてしまうのです。他のケースでは、「AI投資ファンド」やマイニングプールとして宣伝されることもあります。マーケティングの流行語「専用のAI駆動の戦略」に引き寄せられて、彼らに仮想通貨を送って投資するのですが、実際にはポンジースキームです。早期の「投資家」は動作の証明として少し戻ってくるかもしれませんが、最終的には運営者がほとんどの資金を持ち去って姿を消し、豪華なウェブサイトだけが残り、説明責任は何もありません。

2023年から2024年にかけてのChatGPTブームの間に、AIの視点を主張する新しい仮想通貨トークンやプラットフォームが多数登場しました。その中には真っ当なプロジェクトも存在しましたが、多くは純粋な詐欺やポンプアンドダンプスキームでした。詐欺師はAI開発に関連するトークンを発表し、興奮した投資家からの資金流入を見届けた後にプロジェクトを放棄するという(典型的なラグプル)を行いました。AIのアイデアだけでトークンの価値がインフレし、その後の暴落に至ります。また、偽のニュースが武器として使われる様子も見られました。イーロン・マスクなどのディープフェイクビデオが「AI仮想通貨取引プラットフォーム」(前述のとおり)を支持するために用いられ、被害者を投資へと駆り立てました。例えば、あるディープフェイク動画では、このプラットフォームがAIを使用して取引利益を保証すると主張し、人々に投資を促しました。そのようなものは実際には存在しませんでした。これらの計画は、セレブの信頼性とAI技術の神秘性を組み合わせて、信頼できるように見せかけるのです。

詐欺師はAIを持っていると嘘をつくだけでなく、実際にAIを使用して錯覚を強化します。TRM Labsは、ソーシャルメディアのコンテンツと関わることで高いリターンを与えると主張した2024年の大きなピラミッドスキーム、MetaMaxを指摘しました。MetaMaxのウェブサイトにはCEOとチームが掲載されていましたが、「CEO」はディープフェイク技術で作られたAI生成のアバターでした。言い換えれば、本物の人間は存在せず、ただのAIイメージとAIの声が投資家にMetaMaxが次の大きなものだと保証していました。このスキームは崩壊する前にフィリピンの被害者の主に200百万ドル近くを集めました。他の詐欺サイト、babit.ccは、実在の人々の写真を使用する代わりにAIを使ってスタッフ全体のショットを生成するまで行きました。これらの画像には若干の不気味な完璧さを感じるかもしれませんが、AI生成の顔は月を追うごとによりリアルになっています。将来的な詐欺サイトが存在しないリアルな幹部陣を完全に具現化することが容易に想像できるでしょう。

AIをテーマにした投資詐欺を避ける方法: 過度に美味しい話には極端な注意を払ってください、特にAI能力を強調して詳細が明らかではない場合。プロジェクトがAIを使用していると主張するなら、信頼性のある文書や経験豊富なチームが存在するかどうかを確認しましょう。創設者について確認可能な情報が見つからない場合(または情報がAIによるプロファイルのみの場合)は警戒すべきです。公式チャンネルを通じて確認されない限り、仮想通貨分野でのセレブの推薦を信じないでください;マスク、CZ、 ヴィタリックといった人々が取引アドバイスを勝手に行うことや資金倍増オファーを与えることは99%ありません。AI取引ボットがそれほど素晴らしいのなら、その制作者が安価でアクセスを販売したりテレグラムで宣伝したりする理由は何でしょうか?プライベートで使用してリッチになる方が良いのではありませんか?この論理チェックで詐欺が露見することが多々あります。また、保証された収益は警告サインであることを忘れないでください。どんなに高度なアルゴリズムでも、仮想通貨市場にはリスクがあります。正規の企業はリスクについて明確に述べ、固定高利回りを約束しません。投資者として、詐欺師は「AI駆動、量子、保証、秘密アルゴリズム」といった流行語に惹きつけられることに注意しましょう。既知の取引所やプラットフォームを使用し、もし新しいプロジェクトに魅力を感じる場合は、独自の確認を行った後に無くしても問題ない範囲での投資に留めてください。疑念がある場合は、コミュニティの信頼できる声から意見を求めましょう。しばしば「XYZ AIボットについて誰か情報を持っているか?」というフォーラムやRedditでの短い投稿で詐欺であるという警告が浮かび上がります。要するに、AIの革新に対するFOMOがあなたの判断を曇らせないようにしましょう—これらの詐欺において「自動化」されているというのは、お金の盗難のみです。

6. AIによる合成アイデンティティとKYC回避

仮想通貨詐欺はしばしば偽のアイデンティティのネットワークに関与します—被害者を装う人々だけでなく、詐欺者が使用するアカウントやエンティティも含まれます。AIは現在、詐欺者が要求に応じて完全な合成アイデンティティを生成し、偽装者を排除するための検証対策を突破することを可能にしています。これは2つの大きな影響をもたらします:(1) 詐欺者が偽名で取引所やサービスのアカウントを開設することが容易になります、そして(2) 詐欺ウェブサイトにAI生成の「チームメンバー」や証言を埋め込むことで一見信頼性を持たせます。

コンプライアンスの観点から、多くの仮想通貨プラットフォームがKYC(Know Your Customer)のチェックを求めます—例えば、写真IDと自撮りのアップロード。これに対し犯罪者は、これらのチェックを通過することができる偽のIDと改ざんされた自撮りを作成するためにAIツールの使用を開始しています。共通のアプローチは、AI画像ジェネレーターやディープフェイク技術を使って実際のIDの要素を組み合わせたり、盗んだIDの名前に合致する人物の姿を合成するものです。Decryptの最近の逸話によれば、人々が基本的なAIを使用して仮免許証の画像を生成し、取引所や銀行を欺く例がありました。生体認証も安全ではありません:AIはIDを持った、またはシステムが求める動作をする人物の生々しいビデオを出力できます。基本的に、詐欺者は自分のコンピュータの前に座ってAIを使って虚構の人物を操作してアカウントを開設できるのです。これらのアカウントは、その後、盗んだ仮想通貨の洗浄や詐欺プラットフォームの設定に使用されます。捜査官が数百万を引き出した「ジョン・ドウ」が実在しないことに気づくころには、その痕跡は既に冷えています。

同様に詐欺を宣伝する際には、偽造の「確認済み」のアイデンティティが役立ちます。第5節で触れたAI生成のCEOは、この広範な傾向の一部です。詐欺者はLinkedInに実在しない従業員を(AIポートレートと自動生成された履歴書を使って)配置し、GAN生成のプロフィール写真で偽のユーザーレビューを作成し、偽のカスタマーサポートエージェントを生成することさえできます。一部の被害者は、取引所サポート担当者からチャットを受けていると思っていた(おそらくフィッシングサイトのポップアップチャットを通じて)、しかしその担当者はリアルなアバターと名前を持っていました。彼らはそれがAIボットであり、架空の性格で後ろ盾されたものであることを知らなかったのです。ThisPersonDoesNotExist(ランダムリアルな顔を生成するAIツール)は詐欺者にとって恩恵です—詐欺アカウントやプロフィールがフラグされると、次のもの用に新しいユニークな顔をすぐに生成して、スパムフィルタが追いつかないようにします。

エンドユーザをターゲットにした詐欺以外でも、AI支援のアイデンティティ詐欺が犯罪を助長しています。欧州刑事警察機構は、深層フェイクを銀行のビデオKYC手続きに騙して、偽のアイデンティティでミュルアカウントや仮想通貨交換アカウントを設定できることを観察しました。ある事例では、AIを使用して声を真似て銀行の音声認証システムを回避する犯罪者が見られました。法律執行機関は、仮想通貨詐欺からの利益がこれらのAI「アイデンティティキット」の支払いに使用されていることを確認しています—TRM Labsは、詐欺被害者からの仮想通貨がAIサービス提供者に流れたことを追跡し、ディープフェイクもしくは偽のIDツールの購入に使われた可能性があると考えています。これは犯罪の完全なエコシステムです:偽のアイデンティティを購入し、それを使って詐欺インフラを構築し、お金を盗み、偽のIDで開設された交換所を通じて洗浄します。

合成アイデンティティ詐欺への対策方法: 個別ユーザーにとって、これは直接的に遭遇するものではなく、新しい仮想通貨プラットフォームやサービスに取り組んでいる場合、写真や「文書」が偽造できることを意識するものであります。新しい仮想通貨プラットフォームまたはサービスに取り組む際には、いくつかのデューデリジェンスを行ってください。チームは実在し、確認可能ですか?「金融アドバイザー」とのビデオ通話を行い、内容に違和感がある場合(例:微妙な顔の異常さ)、彼らが主張する人物でない可能性道を考慮してください。企業にとって、KYCと不正検出を強化することが義務です—AIをAIで対抗する、例えばID写真が生成されたものか自撮りがディープフェイクであるかを確認する(微妙なアーティファクトを検出できるアルゴリズムが存在します)。ユーザーとしての具体的なアクション可能なヒントは、自分のIDデータを保護することです。詐欺師は通常、オンラインで見つかるあなたの情報をAIの深層フェイクモデルのトレーニングに使用します。共有するものを制限する(例:可能であれば自分の動画を公開しない、またプロフィールは非公開にする)ことで、悪意ある行為者が利用可能な生の素材を減らすことができます。さらに、IDチェックだけでなくその他のセキュリティ対策を有効にし、必須にしてください—例えば、一部の銀行では動画でランダムなフレーズを確認することを求めます(ディープフェイクには瞬時には難しいですが、完全ではありません)。最終的には、アルトマンの提案するように、アイデンティテの検証の方法を進化させる必要があります。多要素で持続的な検証(瞬時ではない)がより安全です。今のところ、消費者としては堅牢なセキュリティを備えたサービスを好み、正当な理由なしに個人資料や情報を要求する個人やサイトに対しては懐疑的であるべきです。アカウントやプロフィールが偽物であると疑う場合(たとえば、仮想通貨投資について新しいSNSアカウントが連絡を取ってきた場合)、安易にリスクを冒さずに切断してください。詐欺師にあなたに対して偽のアイデンティティを使用する機会を与えれば与えるほど良くありません。

7. AI駆動のソーシャルメディアボットと模倣者

仮想通貨詐欺師は長らくソーシャルメディアで成功を収めてきました。TwitterやFacebookからTelegram、Discordまで。今、AIがこれらの詐欺を支えるボットや偽アカウントを加速させ、それらをより効果的かつ本物のユーザーと区別しづらくしています。仮想通貨についてツイートして即座に返信をもらったことがあり...Sure, here's the translated content formatted as requested:

Content: offering “support” or seen random friend requests from attractive people into crypto, you’ve likely encountered this problem. AI allows scammers to deploy armies of bots that are more believable than ever.

支援を提供する”や魅力的な人からのランダムな友達リクエストを見たことがあるなら、あなたはおそらくこの問題に直面しています。AIは、より信じやすいボットの軍団をスキャマーが展開することを可能にします。

For one, generative AI lets each bot have a unique “personality.” Instead of 1,000 bots all posting the same broken-English comment about a giveaway, each can now produce unique, coherent posts that stay on a script but avoid obvious duplication. They can even engage in conversation. For example, on crypto forums or Telegram groups, an AI bot can infiltrate by blending in, chatting casually about the markets or latest NFTs, building credibility in the community. Then, when it DMs someone with a “great opportunity” or a phishing link, the target is less suspicious because they’ve seen that account being “normal” in the group for weeks. AI can also generate realistic profile pictures for these bots (using GANs or similar), so you can’t just do a reverse image search to catch a stolen photo.

例えば、生成AIを使うことで各ボットに独自の“個性”を持たせることができます。1,000のボットが全て同じぎこちない英語のコメントを投稿する代わりに、それぞれが独自で首尾一貫した投稿を生成し、明らかな重複を避けつつスクリプトに従うことができます。会話にも参加できるのです。例えば、暗号フォーラムやTelegramグループでは、AIボットは市場や最新のNFTについてカジュアルに話し、コミュニティの中で信頼を築くことによって、気付かれずに潜入することができます。そして、「素晴らしい機会」やフィッシングリンクをDMで送ったとしても、そのアカウントが数週間にわたり「普通」であったことを見ているターゲットは、あまり疑わないのです。AIはまた、これらのボットのためにリアルなプロフィール写真を生成することができます(GANや類似技術を使用)ので、盗まれた写真をリバースイメージ検索で検出することができません。

Many scam Twitter accounts nowadays sport AI-created profile pics – often of an appealing, friendly-looking person – with none of the telltale glitches that earlier AI images had. Even the bios and posts are AI-written to appear authentic.

現在、多くの詐欺TwitterアカウントがAI生成のプロフィール写真を使用しています。それらはしばしば魅力的で親しみやすい人物に見えるものですが、以前のAI画像にあった見分けやすい欠陥はありません。バイオや投稿自体も、AIが書いたもので、真実味を持つように見えます。

Impersonation of legitimate accounts is another area where AI helps. We touched on deepfake video/voice impersonation, but on text-based platforms, the imposter might just copy the profile of a known figure or support desk. AI can assist by quickly mass-producing lookalike accounts (slightly misspelled handles, for instance) and generating content that matches the tone of the official account.

正規のアカウントのなりすましも、AIが支援する別の分野です。ディープフェイクビデオ/音声のなりすましには触れましたが、テキストベースのプラットフォームでは、インポスターが既知の人物やサポートデスクのプロファイルを単にコピーする可能性があります。AIは、すばやく見た目の似たアカウントを大量生産したり(例えば、ハンドルネームがわずかに誤記されているもの)、正規アカウントのトーンに一致するコンテンツを生成したりすることを支援できます。

When victims message these fake support accounts, AI chatbots can handle the interaction, walking them through “verification” steps that actually steal information. This kind of conversational phishing is much easier to scale with AI.

被害者がこれらの偽サポートアカウントにメッセージを送ると、AIチャットボットがそのやり取りを処理し、実際には情報を盗むための「認証」手順を案内します。この種の会話型フィッシングは、AIを利用するとスケールさせやすくなります。

In one noted scam, users in a Discord community got private messages from what looked like an admin offering help to claim an airdrop; an AI likely powered those chats to convincingly guide users through connecting their wallets – straight into a trap that stole their tokens.

ある著名な詐欺では、Discordコミュニティのユーザーが、エアドロップの提供を行っているかのような管理者からのプライベートメッセージを受け取りました。これらのチャットはAIによって駆動され、ユーザーが財布を接続する過程で、トークンを盗む罠にまっすぐ導かれたのです。

Chainalysis reported that AI chatbots have been found infiltrating popular crypto Discord/Telegram groups, impersonating moderators and tricking people into clicking malicious links or divulging wallet keys. The bots can even respond in real-time if someone questions them, using natural language, which throws off some of the usual tip-offs (like a long lag or irrelevant reply).

Chainalysisは、AIチャットボットが人気のある暗号Discord/Telegramグループに潜入し、モデレーターになりすまし、人々を騙して悪意のあるリンクをクリックさせたり財布のキーを漏洩させたりしていることを報告しました。ボットは自然言語を使ってリアルタイムで反応することも可能であり、通常の警戒信号(長い遅延や無関係な返信など)を払拭します。

The scale is staggering – a single scammer (or small team) can effectively run hundreds of these AI-driven personas in parallel. They might use AI agents that monitor social media for certain keywords (like “forgot password MetaMask”) and automatically reply or DM the user with a prepared scam message.

その規模は驚異的です-単一の詐欺師(あるいは小規模なチーム)が効果的に何百ものAI駆動の人物を並行して運営できます。彼らは特定のキーワード(「パスワードを忘れた MetaMask」など)を監視するAIエージェントを使用し、自動的に用意された詐欺メッセージでユーザーに返信したりDMを送ったりします。

Before AI, they’d have to either do this manually or use crude scripts that were easily flagged. Now it’s all more adaptive. We also see AI being used to generate fake engagement: thousands of comments and likes from bot accounts to make a scam post or scam token seem popular.

AIの前では、彼らはこれを手動で行うか、簡単にフラグが立てられる粗雑なスクリプトを使用する必要がありました。今ではすべてがより適応的です。また、AIが偽の関与を作り出すために使用されているのも目にしています:詐欺の投稿や詐欺トークンを人気のあるものに見せかけるために、ボットアカウントからの何千ものコメントや「いいね」が寄せられます。

For instance, a fraudulent ICO might have dozens of “investors” on Twitter (all bots) praising the project and sharing their supposed profits. Anyone researching the project sees positive chatter and might be fooled into thinking it’s legit grassroots excitement.

例えば、詐欺的なICOには、Twitter上にプロジェクトを称賛し、想定された利益を共有する「投資家」(すべてがボット)が多数存在するかもしれません。プロジェクトを調査する人は積極的な会話を見て、それが合法的な草の根の興奮であると誤解するかもしれません。

How to fight social media bot scams: First, recognize the signs of bot activity. If you get an instant generic reply the moment you mention a crypto issue online, assume it’s malicious.

ソーシャルメディアのボット詐欺と戦う方法:まず、ボット活動の兆候を認識します。暗号の問題をオンラインで取り上げるとすぐに一般的な即座の返信を受け取った場合、それを悪意のあるものと仮定します。

Never click random links sent by someone who reached out unsolicited, even if their profile picture looks nice. Check profiles carefully: When was it created? Does it have a history of normal posts or is it mostly promotional? Often bots have brand-new accounts or weird follower/following ratios.

たとえプロフィール画像が良さそうに見えても、招かれていないのに連絡を取ってきた人物が送ったランダムなリンクを決してクリックしないでください。プロフィールを慎重に確認してください:いつ作成されたものですか?通常の投稿の履歴がありますか、それともほとんどが宣伝用ですか?ボットには、新しいアカウントやおかしなフォロワー/フォローイング比率のものが多いです。

On Telegram/Discord, adjust your privacy settings to not allow messages from members you don’t share a group with, or at least be wary of anyone messaging out of the blue. Official support will rarely DM you first.

Telegram/Discord上では、グループを共有しないメンバーからのメッセージを許可しないようにプライバシー設定を調整する、または少なくとも突然メッセージを送ってくる人には警戒してください。公式サポートが最初にDMを送ることはめったにありません。

If someone impersonates an admin, note that reputable admins usually won’t conduct support via DM – they’ll direct you to official support channels. If a Twitter account claims to be support for a wallet or exchange, verify the handle against the company’s known handle (scammers love swapping an “0” for “O”, etc.).

もし誰かが管理者になりすましている場合、信頼できる管理者は通常DMを通じてサポートを行わないという点を注意してください-彼らはあなたを公式のサポートチャンネルに誘導します。Twitterアカウントがウォレットまたは取引所のサポートであると主張した場合、会社の既知のハンドルネームと照らし合わせて確認してください(スキャマーは“0”を“O”に交換するのが好みです。)

Utilize platform tools: Twitter’s paid verification is imperfect, but a lack of a blue check on a supposed “Binance Support” is a dead giveaway now. For Discord, communities sometimes have bot-detection tools – pay attention to admin warnings about scams and bots.

プラットフォームツールを活用してください:Twitterの有料認証は完璧ではありませんが、仮の“Binance Support”にブルーチェックがないことは今や明白な手がかりです。Discordの場合、コミュニティは時々ボット検出ツールを持っています – 詐欺やボットについての管理者の警告に注意を払いましょう。

As users, one of the best defenses is a healthy cynicism about “friendly strangers” offering help or money online.

ユーザーとして、最も良い防御の一つは、「親切な見知らぬ人」がオンライン上で提供する助けやお金についての健全な懐疑心を持つことです。

Real people can be kind, but in the crypto social sphere, unsolicited help is more likely a con.

実際の人は親切かもしれませんが、暗号のソーシャルスフィアでは、招かれない助けは詐欺の可能性が高いです。

So, if you’re flustered about a crypto problem, resist the urge to trust the first person who DMs you claiming they can fix it. Instead, go to the official website of the service in question and follow their support process. By denying scammers that initial engagement, their whole AI-bot advantage is nullified.

ですから、暗号の問題に慌てたときは、最初にDMを送ってきて問題を解決できると主張する人を信じる誘惑に抵抗してください。その代わりに、問題のサービスの公式ウェブサイトにアクセスし、そのサポートプロセスに従ってください。スキャマーにその初期の関与を否定することによって、彼らのAIボットのアドバンテージを無効にします。

And finally, report and block obvious bot accounts – many platforms improve their AI detection based on user reports.

そして最後に、明らかにボットとわかるアカウントを報告しブロックしてください‐多くのプラットフォームはユーザー報告に基づいてAI検出を向上させています。

It’s an ongoing arms race: AI vs AI, with platforms deploying detection algorithms to counter malicious bots. But until they perfect that, staying vigilant and not engaging with probable bots will go a long way to keeping your crypto safe.

それは続く武器競争です:AI対AI、プラットフォームが悪意のあるボットに対抗するために検出アルゴリズムを展開しています。しかしそれが完璧になるまで、警戒心を持ち、プロバブリーなボットと関与しないことがあなたの暗号を安全に保つために非常に役立ちます。

8. Autonomous “Agent” Scams – The Next Frontier

自律エージェント詐欺 – 次なるフロンティア

Looking ahead, the most unsettling prospect is fully automated scam operations – AI agents that conduct end-to-end scams with minimal human input. We’re already seeing early signs of this.

将来を見据えると、最も不安をかき立てる見通しは、完全に自動化された詐欺操作です‐最小限の人間の入力でエンドツーエンドの詐欺を行うAIエージェント。すでにその初期の兆候が見られています。

An AI agent is essentially a software program that can make decisions and perform multi-step tasks on its own (often by invoking other AI models or software tools).

AIエージェントは、本質的には他のAIモデルやソフトウェアツールを呼び出すことによって、独自に意思決定し、複雑なタスクを実行できるソフトウェアプログラムです。

OpenAI’s recently announced ChatGPT-powered agents that can browse, use apps, and act like a human online have raised both excitement and concern. Scammers are undoubtedly eyeing these capabilities to scale their fraud to new heights.

OpenAIが最近発表した、ブラウジングやアプリの使用、人間のようにオンラインで活動できるChatGPT駆動のエージェントは、興奮と懸念の両方を引き起こしました。スキャマーはこれらの機能に間違いなく注目しており、彼らの詐欺を新たな高みに引き上げることを目指しています。The complete translation is provided below, following the specified structure:

Content: 本物の機関はそれを拒否します。消費者として、私たちはコンテンツを検証するための新しいツール(おそらくAI駆動の)を見ることがあるかもしれません。例えば、AI生成のテキストやディープフェイク動画を疑わしいとフラグ付けするブラウザプラグインです。そのような保護技術について情報を得て使用することは、競争の条件を平等にするのに役立ちます。

最終的に、このAI競争において、人間の警戒心が最も重要です。相手が人ではない可能性があることを認識することで、信頼レベルを適宜調整することができます。デジタルのやりとりをそのまま受け入れることができない時代に入っています。それは不安にさせるものですが、それを知っていることが戦いの半分です。詐欺は自動化されていますが、それに対して疑念を自動化することができれば──つまり、すべての未承諾の要求を他者が正当であると証明するまで悪意のあるものと見なす──最も賢いAI詐欺師ですら騙すために高いハードルを乗り越えなければならないことを強いることができます。

9. 権限と業界が反撃している方法

すべてが暗いわけではありません──詐欺師に力を与える同じAI技術が、詐欺を検出し、防ぐために利用できます。それを実現するための集中した取り組みが進んでいます。ブロックチェーン分析会社、サイバーセキュリティ会社、法執行機関が、AIおよび機械学習をますます利用してAI駆動の暗号詐欺の波に対抗しています。それは古典的な猫とネズミのゲームです。正義の味方がどのように対応しているかを見てみましょう。

  • AI駆動の詐欺検出:ChainalysisやTRM Labsのような会社は、詐欺を示唆するパターンを見つけるためにAIをモニタリングプラットフォームに統合しています。例えば、機械学習モデルは何百万ものメッセージからのテキストを分析してAI生成やソーシャルエンジニアリングの言語的手がかりを拾い上げます。また、オンチェーン動作を追跡します──ある報告では、詐欺ウォレットへの預金の約60%がAIの使用に関連していると指摘されています。AIサービスの支払いを行っているウォレットや自動取引のパターンを示すウォレットを特定することは、調査担当者が早期に詐欺運営をフラグ付けすることを可能にします。いくつかのフィッシング防止ソリューションはAIビジョンを使用して偽のウェブサイトを認識し(ロゴのピクセルレベルの不一致をスキャンしたり、わずかなドメインの違いを検出したりする)、手動レビューよりも速くなります。

  • 認証の改善:Altmanの発言を受けて、音声やビデオは信頼できないことから、機関はより強固な認証に向けて動いています。生体認証は、デバイスの指紋や行動生体認証(たとえば、どのようにタイピングしたりスワイプしたりするか)など、AIが大量に模倣するのが難しいものにシフトする可能性があります。規制当局は、銀行や取引所に対し、大規模な送金に対して多要素認証やアウトオブバンド認証を実装するよう促しています──たとえば、大きな暗号引き出しを要求する場合、ランダムな動作を行う必要があるライブビデオ通話を実施することで、ディープフェイクが正確に応答することを難しくします。Fedおよびその他の機関は、AIのなりすましの試みを検出するための基準について議論しています。これは$25MのディープフェイクCFO詐欺のようなケースを催促しました。

  • 認識キャンペーン:公教育が重要であることを当局は知っています。FBI、Europol、およびその他の機関は、AI詐欺の戦術について人々に知らせるために警告を出し、ウェビナーを開催しました。これは、深層偽造アーティファクトの見分け方やフィッシーなAI生成テキストがどうなっているのかなど、この記事で幾度か反響している実用的なアドバイスを含んでいます。人々が何を見つけるべきかを知っているほど、詐欺の効果は低くなります。いくつかの管轄地域では、警告ラベルの義務付けを検討しています──たとえば、政治広告にAI生成コンテンツであることを開示する必要があります。このような政策は、金融プロモーションにも拡張される可能性があります。

  • 法律と方針の対策:技術は急速に進化していますが、ディープフェイクの悪用に関する法律の厳格化が議論されています。米国のいくつかの州は、選挙で使われるディープフェイクや犯罪でのなりすましのための法律を持っており、詐欺のケースに適用できる可能性があります。規制当局はまた、AIツール提供者の責任を調査しています──例えば、WormGPTのような犯罪に明確に使用される製品が作成者やユーザーを追及できるかどうか。並行して、主流のAI企業はAI生成出力の透かしを入れるか、または真正性を検証する方法を提供しています(例えば、OpenAIはGPTテキストの暗号透かしを研究しています)。これにより、広く採用されれば、AI生成のものであるかどうかを区別するのに役立ちます。

  • コラボレーションと情報共有:AI詐欺の脅威が協力を活性化させたというポジティブな側面もあります。暗号取引所、銀行、技術プラットフォーム、法執行機関は、詐欺師のアドレス、既知のディープフェイクの戦術、フィッシングのトレンドに関するデータを共有しています。たとえば、偽の資格情報で開設された可能性があるアカウントを取引所が確認すると、他の機関や法執行機関に警告を発し、同じ身元が他の場所で再利用されるのを防ぎます。大きな事件の後、業界グループはAIがどのように活用されたかを学ぶための後日報告を行い、緩和戦略を広めています。

  • 被害者支援と介入:多くの被害者が報告を恥ずかしく思っていると認識しており(約15%しか被害を報告しないことを思い出してください)、いくつかの機関は積極的に動いています。FBIの2024年のOperation Level Upは、金融の流れを分析することで詐欺に遭ったことに気づく前に「豚の解体詐欺」の被害者とされる数千人を特定し、適時に警告することで追加の$285百万の損失を防ぎました。言い換えれば、より良い検出がリアルタイムでの介入を可能にしたのです。このようなイニシアチブが増えれば、AIを使って詐欺パターンをサイクルの初期に発見し、可能性のある被害者を救うことができます(たとえば、偽のプラットフォームに反復的な不自然な取引が行われている等)。

結局のところ、AI支援詐欺を打ち負かすには「村全体が必要」です。技術的な防御、情報を得たユーザー、更新された規制、および国境を越えた法執行協力が必要です。詐欺師たちはAIを自分たちのワークフローに統合するのが上手であることを証明していますが、対策も平行して進んでいます。これは進行中の戦いではありますが、負けた戦いではありません。脅威と新たに生まれる解決策の両方について情報を得ておくことで、暗号通貨のコミュニティはそれに適応することができます。考えてみてください──確かに詐欺師たちは強力な新しいツールを持っていますが、私たちもそうです。AIは、大量のデータから干し草の山の中の針を見つけるのに役立ちます(詐欺ウォレットネットワークをクラスタリングしたり、ディープフェイクコンテンツを検出したり)。また、AI駆動のトレーニングシミュレーションを通じて、人々に詐欺の試みにどのように対応するかを教育することができます。

10. 自己保護:安全を保つための重要な要点

AIが暗号を盗むために悪用されているさまざまな方法を探索した後、いくつか実用的な予防策をまとめてみましょう。これは、詐欺が進化してもあなたをターゲットにしにくくする習慣や予防策です。以下の日本語訳をご覧ください。Markdownリンクは翻訳せずにそのままにしておきます。

新しいビジネスパートナー)と取引する際は、徹底的なデューデリジェンスを行い、大きな取引に関しては、対面でのミーティングを求めても良いでしょう。お金に関しては、すべてを二度確認することが許されます。ことわざに「信じるな、確認せよ」というものがあります。これは元々ブロックチェーンの取引に関するものでしたが、今ではコミュニケーションにも当てはまります。

  • ターゲットにされた場合は報告と援助を求める:詐欺に遭遇した場合は、その内容をプラットフォームに報告してください(プラットフォームは悪意のあるアカウントの削除に動きます)。また、Chainabuseや政府の詐欺サイトにも報告すると良いでしょう。これにより、コミュニティの助けとなり、捜査活動にも役立ちます。そして、もし不運にも被害者となってしまったら、直ちに当局に連絡してください―回復は難しいですが、早めの報告が結果を改善します。さらに、あなたのケースが他の人が被害に遭うのを防ぐ貴重な情報を提供するかもしれません。

結論として、AIを活用した暗号通貨詐欺の増加は深刻な課題ですが、克服不可能なものではありません。敵のプレイブック―ディープフェイク、声のクローン、AIチャットボット、偽のAI投資など―を知ることで、彼らの行動を予測し、罠を避けることができます。テクノロジーは双方で進化し続けます。今日はディープフェイク動画やGPTで書かれたメールを使っていますが、明日にはさらに洗練された詐欺に進化しているかもしれません。それでも、ほとんどの詐欺の核心は依然としてあなたに何かをさせようとするものです。お金を送ること、秘密を明かすこと、防御策を迂回することなどです。それが合図です。そこで得た知識を適用するのです。警戒を怠らず、情報を持っていれば、最も賢い機械駆動の詐欺をも打ち負かすことができます。最強の防御は最終的にはあなた自身の批判的思考です。偽物が蔓延する世界では、実際の懐疑心こそが黄金です。

免責事項: この記事で提供される情報は教育目的のみであり、金融または法律のアドバイスとして考えるべきではありません。暗号資産を扱う際は、必ず自身で調査するか、専門家に相談してください。
最新のリサーチ記事
すべてのリサーチ記事を表示