Các nhà đầu tư crypto thông thường đang đối mặt với một mối đe dọa mới đáng báo động: kẻ lừa đảo được trang bị trí tuệ nhân tạo tiên tiến. Crypto fraud enabled by AI đã bùng nổ trong năm qua – các báo cáo về lừa đảo hỗ trợ bởi AI đã tăng 456% từ giữa 2024 đến giữa 2025.
Hiện nay, những kẻ lừa đảo sử dụng AI để tạo ra các video, giọng nói và tin nhắn giả mạo, khiến chiêu trò lừa đảo crypto của họ trở nên thuyết phục hơn và khó phát hiện hơn bao giờ hết. Theo FBI, gần 150.000 đơn khiếu nại liên quan đến lừa đảo crypto đã được nộp trong năm 2024, với hơn 3.9 tỷ USD bị mất chỉ riêng tại Hoa Kỳ. Trên toàn cầu, thiệt hại từ lừa đảo crypto đã lên đến 10.7 tỷ USD trong năm 2024 – và đó có thể chỉ là phần nổi của tảng băng, vì chỉ khoảng 15% nạn nhân ước tính đã báo cáo tội phạm này.
Ngay cả Sam Altman, CEO của OpenAI, cũng đã cảnh báo rằng khả năng mô phỏng con người của AI đã “hoàn toàn đánh bại hầu hết các phương pháp xác thực” và có thể dấy lên một “cuộc khủng hoảng gian lận đáng kể sắp tới”. Trong bài viết này, chúng tôi sẽ phân tích 10 lừa đảo crypto sử dụng AI hàng đầu đang gây rối ngành, minh họa cách thức hoạt động của chúng với các ví dụ thực tế và, quan trọng nhất, cách bạn có thể bảo vệ bản thân.
Biểu đồ: Tỷ lệ các giao dịch lừa đảo crypto có sử dụng công cụ AI đã tăng mạnh từ năm 2021, với khoảng 60% tất cả các địa chỉ gửi lừa đảo vào năm 2025 liên quan đến các âm mưu hỗ trợ bởi AI. Điều này phản ánh tốc độ mà các kẻ xấu đã áp dụng AI để mở rộng phạm vi gian lận.
1. Lừa đảo Endorsement với Deepfake của các Ngôi sao Nổi tiếng (Video & Streams Giả)
Một trong những lừa đảo crypto sử dụng AI phổ biến nhất là dùng deepfake để tạo ra các video người nổi tiếng quảng bá các chương trình lừa đảo. Những kẻ lừa đảo giả mạo hình ảnh những người nổi tiếng trong ngành công nghệ và crypto – Elon Musk là gương mặt ưa thích – trong các video quảng cáo chương trình tặng thưởng hoặc nền tảng đầu tư lừa đảo. Ví dụ, tội phạm chiếm đoạt các kênh YouTube phổ biến và phát sóng trực tiếp video đã được sửa chữa của Elon Musk (hoặc các nhân vật có ảnh hưởng trong crypto khác như Brad Garlinghouse của Ripple hay Michael Saylor của MicroStrategy) hứa hẹn “tăng gấp đôi Bitcoin của bạn” hoặc các khoản lợi nhuận không thực. Thực tế, video và âm thanh đã bị AI chỉnh sửa; những người thật chưa bao giờ tuyên bố những điều này. Người xem gửi crypto đến địa chỉ quảng cáo với hy vọng giành được phần thưởng đều bị lừa.
Đây là một bước phát triển của các chiêu trò lừa đảo tặng thưởng crypto trước đây dùng đoạn video phỏng vấn thực của người nổi tiếng. Giờ đây, với công nghệ deepfake, những kẻ lừa đảo chèn nội dung âm thanh/video mới sao cho dường như người nổi tiếng đang trực tiếp quảng bá cho trang web lừa đảo của họ. Những buổi giả mạo phát trực tiếp có thể rất thuyết phục ngay cái nhìn đầu tiên. Chainabuse (trang web báo cáo gian lận công khai) đã nhận được báo cáo về một buổi phát sóng deepfake với Elon Musk vào giữa năm 2024 mà đã lừa được nhiều nạn nhân trong vài phút, thu về nguồn tài chính đáng kể. Phân tích blockchain sau đó cho thấy các địa chỉ lừa đảo này đã nhận ít nhất 5 triệu USD từ các nạn nhân giữa tháng Ba 2024 và tháng Giêng 2025, và một kế hoạch deepfake Musk khác quảng cáo một “nền tảng giao dịch AI” đã mang về hơn 3.3 triệu USD. Một nghiên cứu của công ty an ninh mạng Sensity phát hiện Musk là người nổi tiếng bị làm giả nhiều nhất trong các vụ lừa đảo đầu tư, có thể bởi vì hình ảnh của ông mang lại uy tín và ông thường xuyên nói về crypto. Những kẻ lừa đảo lợi dụng điểm tin cậy đó.
Hiện nay, công nghệ deepfake truyền trực tiếp còn có thể cho phép các cuộc gọi video thời gian thực với gương mặt giả. Điều này có nghĩa là kẻ lừa đảo có thể thực sự xuất hiện dưới dạng người khác trong cuộc gọi Zoom. Trong một trường hợp nổi bật, những kẻ tội phạm giả mạo CFO và đồng nghiệp của một công ty trong cuộc gọi video sử dụng phần mềm hoán đổi khuôn mặt AI, lừa một nhân viên chuyển 25 triệu USD cho chúng. Các giám đốc điều hành deepfake trông và âm thanh rất thật – một kịch bản ác mộng cho bất kỳ tổ chức nào. Như Sam Altman của OpenAI đã lưu ý, “giọng nói hoặc video deepfake đang trở nên không thể phân biệt với thực tế”. Đối với nhà đầu tư crypto thông thường, một video deepfake của một nhân vật uy tín như CEO nổi tiếng hay người sáng lập dự án có thể sẽ rất thuyết phục.
Cách phát hiện và tránh các âm mưu này: Hãy cực kỳ thận trọng với các chương trình khuyến mãi crypto “nghe có vẻ quá tốt để là thật”, ngay cả khi chúng có sự tham gia của người nổi tiếng. Kiểm tra kỹ video – deepfake có thể hiển thị sự cố nhỏ như nháy mắt không tự nhiên, chuyển động miệng lạ, hoặc ánh sáng không khớp quanh khuôn mặt. Nghe các chỗ nhịp điệu giọng nói không tự nhiên hoặc các vấn đề âm thanh. Nếu một người nổi tiếng đột nhiên hứa hẹn lợi nhuận đảm bảo hoặc khuyến mãi (đặc biệt trong buổi phát trực tiếp yêu cầu bạn gửi crypto), chắc chắn là lừa đảo. Kiểm tra với các nguồn chính thức; ví dụ, Elon Musk từng nhiều lần tuyên bố ông không không làm khuyến mãi crypto. Đừng bao giờ gửi tiền vào các địa chỉ không rõ ràng từ video. Khi còn đang nghi ngờ, hãy tạm dừng – những kẻ lừa đảo dựa vào sự hào hứng và gấp rút. Bằng cách dành một chút thời gian để xác minh từ các kênh chính thức hoặc các phương tiện truyền thông xem liệu chương trình quảng cáo có thật hay không (chắc chắn không), bạn có thể tránh rơi vào bẫy deepfake quảng cáo. Here's the translation of the provided content from English to Vietnamese, with markdown links untouched:
Skip translation for markdown links.
Nội dung: hoặc các biến thể không được kiểm duyệt trái phép như "WormGPT" và "FraudGPT" - chúng có thể tạo ra những thông điệp trôi chảy, hấp dẫn bằng mọi ngôn ngữ, 24/7. Điều này có nghĩa là một kẻ lừa đảo có thể quản lý hàng chục nạn nhân đồng thời, với AI tạo ra các văn bản yêu đương cá nhân hóa, phân tích thị trường, hoặc bất kỳ điều gì mà kịch bản yêu cầu. Thực tế, một cuộc điều tra năm 2023 của Sophos cho thấy các nhóm "pig butchering" đã bắt đầu sử dụng ChatGPT để viết các cuộc trò chuyện; một nạn nhân thậm chí còn nhận được một thông điệp dán kỳ lạ vô tình tiết lộ nó được tạo ra bởi AI. Bỏ qua lỗi đó, LLMs cho phép kẻ lừa đảo “cá nhân hóa cao” cách tiếp cận của họ – điều chỉnh tông điệu và nội dung để phù hợp hoàn hảo với nền tảng và trạng thái cảm xúc của từng nạn nhân. Thời kỳ của tiếng Anh sai ngữ pháp hoặc kịch bản sao chép đã kết thúc. Với AI, các văn bản trở nên chân thực, khiến nạn nhân dễ bị thuyết phục hơn khi gặp cú lừa cuối cùng.
AI cũng đang phá vỡ rào cản ngôn ngữ mà từng giới hạn những trò lừa đảo này. Ban đầu, nhiều nhóm "pig butchering" đặt tại Đông Nam Á nhằm vào các nạn nhân nói tiếng Trung. Mở rộng sang các nạn nhân phương Tây bị cản trở bởi kỹ năng tiếng Anh kém hơn của kẻ lừa đảo – ngữ pháp lủng củng thường là dấu hiệu đáng ngờ. Hiện tại, việc dịch thuật và viết lách dựa trên LLM cho phép một người không phải gốc có thể lừa đảo một cách suôn sẻ trong tiếng Anh, tiếng Đức, tiếng Nhật, hoặc bất kỳ thị trường nào có lợi. Kẻ lừa đảo đưa tin nhắn đến AI để dịch và tạo trả lời, cho phép chúng đóng vai nhà đầu tư toàn cầu hoặc đối tác lãng mạn ngay cả bằng các ngôn ngữ mà chúng không nói. Điều này đã mở rộng đáng kể số lượng mục tiêu. Các chuyên gia có trình độ ở Châu Âu hoặc Bắc Mỹ, những người có thể từ chối các thông điệp lừa đảo vụng về, giờ đây có thể nhận được thư từ tinh tế, được địa phương hóa hoàn hảo từ một “doanh nhân hấp dẫn” đã kết bạn với họ trực tuyến. Kết quả? Nhiều nạn nhân được vỗ béo (giống như “heo”) để cuối cùng bị giết mổ.
Và đừng quên deepfakes trong “pig butchering”. Mặc dù phần lớn việc dụ dỗ diễn ra thông qua văn bản, đôi khi kẻ lừa đảo lên lịch các cuộc gọi video ngắn để giảm bớt nghi ngờ. Ở đây chúng ngày càng sử dụng các video deepfake thay đổi khuôn mặt – chẳng hạn, một kẻ lừa đảo có thể thuê một người phụ nữ xuất hiện trên camera nhưng dùng AI để thay thế khuôn mặt bằng các bức ảnh đánh cắp mà chúng đã sử dụng trong hồ sơ. Chiến lược “bằng chứng sống” này thuyết phục nạn nhân rằng người yêu trực tuyến của họ là thực sự. (Một số hoạt động thậm chí còn quảng cáo tìm “các mẫu mặt thực” những người, với sự giúp đỡ của các bộ lọc AI, xuất hiện như người bạn đời trong mơ của nạn nhân trên video.) Một khi niềm tin được thiết lập, những kẻ lừa đảo hướng dẫn các nạn nhân đầu tư vào các nền tảng tiền điện tử giả mạo hoặc chương trình “khai thác thanh khoản”, thường hiển thị các ảnh chụp lợi nhuận giả mạo để thu hút các khoản tiền gửi lớn hơn. Các nạn nhân đã biết tái tài trợ căn nhà hoặc rút sạch 401(k) dưới ảo tượng về một cuộc sống cùng với kẻ lừa đảo của họ hoặc những món lợi lớn sắp tới. Đó là một cú sốc hoàn toàn – và AI chỉ làm tăng thêm sự lừa dối.
Làm thế nào để tránh các lừa đảo “pig butchering”: Duy trì sự hoài nghi lành mạnh về mối quan hệ chỉ trực tuyến hoặc những mối quan hệ bắt đầu ngẫu nhiên và trở nên quá mức. Nếu ai đó bạn chưa từng gặp trực tiếp đang hướng dẫn bạn đầu tư vào tiền điện tử hoặc yêu cầu giúp đỡ tài chính, đó là một lá cờ đỏ rõ ràng. Tìm kiếm ngược hình ảnh hồ sơ để xem nếu chúng bị đánh cắp (nhiều kẻ lừa đảo “pig-butchering” sử dụng ảnh của các mẫu hoặc các nạn nhân khác). Cảnh giác với các cuộc gọi video, nơi mà chất lượng camera của người đó có vẻ kỳ lạ hoặc họ không chịu hiện toàn bộ khuôn mặt – họ có thể đang che giấu một sự bất thường deepfake. Áp lực đầu tư nhanh chóng hoặc các tuyên bố về kiến thức nội gián là dấu hiệu của lừa đảo. Cũng nên nhớ rằng những chuyên gia đầu tư thật hay người yêu không bao giờ thường hứa hẹn lợi nhuận đảm bảo. FBI và các cơ quan khác đã phát hành các cảnh báo chính thức về các lừa đảo “pig-butchering” và lừa đảo tình cảm tiền điện tử – vì vậy hãy tự giáo dục và giáo dục người khác về cách các lừa đảo này hoạt động. Nếu bạn nghi ngờ ai đó có thể là kẻ lừa đảo, hãy cắt đứt liên lạc và đừng bao giờ gửi tiền hoặc tiền điện tử cho họ. Và nếu bạn đã bị nhắm vào, hãy báo cáo (ẩn danh nếu cần) để giúp các cơ quan theo dõi các nhẫn này. Sự nhận thức là vũ khí bảo vệ tốt nhất của bạn, để dù cho kỹ năng trò chuyện hấp dẫn được hỗ trợ bởi AI như thế nào, bạn cũng không rơi vào bẫy.
4. Email và Tin nhắn Lừa đảo do AI Viết (Những trò Lừa đảo Thông minh Hơn Ở Quy mô Lớn)
Phishing – những email hoặc tin nhắn giả mạo lừa bạn nhấp vào một liên kết độc hại hoặc cho thông tin cá nhân – đã lâu là trò chơi số lượng. Kẻ lừa đảo gửi đi hàng nghìn tin nhắn chung chung (“Tài khoản của bạn đang gặp rủi ro, đăng nhập tại đây...”) hy vọng vài người mắc bẫy. Hiện nay, AI đang làm cho phishing thuyết phục hơn và nhắm trúng mục tiêu hơn. Với các công cụ như mô hình ngôn ngữ sinh tạo, kẻ tấn công có thể dễ dàng tạo ra các tin nhắn cá nhân hóa, trôi chảy mà mô phỏng phong cách giao tiếp chân thành, nâng cao đáng kể tỷ lệ thành công của chúng.
Các mô hình ngôn ngữ lớn (LLMs) có thể tạo ra những mánh lừa phishing gần như không thể phân biệt được với một email thực từ ngân hàng của bạn, sàn giao dịch tiền điện tử, hoặc bạn bè. Chúng loại bỏ những lỗi ngữ pháp và cách diễn đạt lúng túng thường để lộ các mánh lừa đã lỗi thời. Ví dụ, một AI có thể được chỉ dẫn viết một email khẩn cấp từ “[Your Crypto Exchange] Security” cảnh báo về một khoản rút tiền và cung cấp một liên kết để “bảo mật tài khoản của bạn.” Văn bản sẽ trau chuốt và chuẩn thương hiệu. Kẻ lừa đảo cũng sử dụng AI để quét mạng xã hội của bạn và điều chỉnh tin nhắn chính xác – tham chiếu các giao dịch gần đây hoặc gọi tên một người bạn – một kỹ thuật được gọi là spear phishing. Mức độ tùy chỉnh này từng đòi hỏi nhiều công sức, nhưng một đại lý AI có thể làm trong vài giây bằng cách lấy dữ liệu công khai.
Thậm chí có các công cụ AI ngầm được xây dựng rõ ràng cho tội phạm mạng. Vì các mô hình công khai như ChatGPT có các bộ lọc đối với việc sử dụng bất hợp pháp, tội phạm đã phát triển hoặc mua các LLM như “WormGPT” và “FraudGPT” không có giới hạn đó. Các AI độc hại này, có sẵn trên các diễn đàn web đen, có thể tạo ra các email phishing thuyết phục, mã độc hại, thậm chí từng bước hướng dẫn lừa đảo. Với một lời nhắc đơn giản, kẻ lừa đảo với kỹ năng tiếng Anh hạn chế có thể tạo ra một email gần như hoàn hảo bằng mọi ngôn ngữ, hoặc tạo ra toàn bộ nội dung văn bản của một trang web phishing. Theo công ty đào tạo an ninh mạng KnowBe4, đến năm 2024 gần 74% email phishing mà họ phân tích cho thấy dấu hiệu của việc sử dụng AI – nói cách khác, phần lớn các nỗ lực phishing hiện nay đều được tăng cường bởi khả năng viết lách của AI.
Ngoài email, chatbot AI còn là mối đe dọa trên các nền tảng nhắn tin. Kẻ lừa đảo có thể triển khai bot trên Telegram, Discord, WhatsApp, v.v., tương tác với người dùng trong thời gian thực, lôi kéo họ giống như một người thật. Ví dụ, bạn có thể tweet về việc gặp vấn đề với ví tiền điện tử của mình và ngay lập tức nhận được phản hồi từ một “đại diện hỗ trợ” (thực tế là một bot) DMs bạn. AI, giả vờ là dịch vụ hỗ trợ khách hàng, sau đó hướng dẫn bạn qua một “xác minh” giả mạo cướp lấy khóa của bạn. Vì chatbot có thể hiểu và đáp lại câu hỏi của bạn một cách tự nhiên, bạn ít có khả năng nhận ra nó là giả. Kiểu kỹ thuật xã hội điều khiển bởi AI này có thể lừa ngay cả những người dùng thông thạo công nghệ. Trong một trường hợp, kẻ lừa đảo đã thiết lập một chatbot “trợ lý đầu tư” giả mạo hứa hẹn giúp người dùng giao dịch tiền điện tử – thực chất chỉ là một cái bẫy để thu thập các khóa API và thông tin tài khoản.
Minh họa ý tưởng một kẻ lừa đảo kỹ thuật số sử dụng AI. Các cuộc tấn công phishing và malware ngày càng được trợ giúp bởi các thuật toán AI, có thể tạo ra các thông điệp thực tế và thậm chí mã độc hại để đánh cắp mật khẩu và quỹ tiền điện tử.
Hơn nữa, AI có thể hỗ trợ trong việc hack bằng cách sản xuất mã phần mềm độc hại và tự động hóa các cuộc tấn công. Ví dụ, một tội phạm với kiến thức mã hóa tối thiểu có thể yêu cầu một AI không bị kiểm duyệt viết một chương trình làm trống các ví tiền điện tử hoặc cài đặt một keylogger để lấy cụm từ hạt giống. Đã có báo cáo về các ransomware cơ bản và infostealers được tạo ra với sự trợ giúp của AI. Mặc dù điều này đi xa hơn vào việc hack hơn là lừa đảo, các đường ranh mờ nhạt – thường thì một email phishing sẽ chuyển tải phần mềm độc hại. Với sự giúp đỡ của AI, tội phạm có thể tung ra các biến thể phần mềm độc hại mới nhanh hơn là các nhóm bảo mật có thể ngăn chặn chúng. Và AI có thể giúp vượt qua các cuộc kiểm tra bảo mật: giải quyết CAPTCHA, tạo ra các ID giả để vượt qua xác minh (xem Mục 6), thậm chí bẻ khóa mật khẩu bằng cách đoán một cách thông minh (mặc dù các khóa mật mã mạnh vẫn an toàn, nhưng các khóa yếu thì không). Sam Altman cảnh báo rằng ngay cả kiểm tra ID selfie và đăng nhập bằng giọng nói cũng trở thành nhỏ nhặt đối với AI, nghĩa là các phương pháp xác thực mà chúng ta dựa vào cần được nâng cấp khẩn cấp.
Cách để an toàn trước những kẻ lừa đảo phishing dùng AI: Lời khuyên cũ vẫn áp dụng – không bao giờ nhấp vào các liên kết đáng ngờ hoặc tải xuống tệp đính kèm từ những người gửi không rõ, bất kể thông điệp có vẻ hợp pháp đến đâu. Cảnh giác cao với bất kỳ thông tin liên lạc nào (email, tin nhắn, DM) tạo ra cảm giác khẩn cấp hoặc yêu cầu thông tin đăng nhập của bạn, mã 2FA hoặc cụm từ hạt giống. Ngay cả khi định dạng và ngôn ngữ có vẻ hoàn hảo, hãy kiểm tra kỹ email/người gửi – tìm những lỗi tinh vi hoặc URL không khớp (ví dụ: “binance.support.com” thay vì tên miền thực). Xác nhận trực tiếp với dịch vụ hoặc người nếu bạn nhận được một yêu cầu không mong đợi. Sử dụng các kênh ứng dụng/trang web chính thức thay vì các liên kết được cung cấp trong tin nhắn. Trên các nền tảng mạng xã hội, không tin tưởng “hỗ trợ” chủ động tiếp cận; công ty thực sự sẽ không yêu cầu mật khẩu qua DM. Về mặt kỹ thuật, kích hoạt các biện pháp bảo vệ phishing như bộ lọc email và công cụ uy tín web – và cập nhật phần mềm antivirus và phần mềm của bạn để phát hiện phần mềm độc hại. Quan trọng nhất, duy trì một tư duy hoài nghi. Nếu bạn đang bị đẩy để nhanh chóng hành động hoặc đưa ra thông tin, đó là dấu hiệu để chậm lại và xác minh. Bằng cách đối xử với tất cả các tin nhắn không mong đợi một cách cẩn trọng, bạn có thể thông minh hơn ngay cả với các lừa đảo do AI tạo ra. Nhớ rằng, không một công ty thực sự hoặc bạn bè sẽ phiền nếu bạn mất thêm một phút để xác nhận tính xác thực – chỉ có những kẻ lừa đảo mới ép bạn hành động ngay lập tức.Format kết quả như sau:
Bỏ qua dịch nghĩa cho các liên kết markdown.
Nội dung: tạo ra lợi nhuận. Vì vậy, họ tạo ra các bot giao dịch giả mạo sử dụng AI, các nhóm tín hiệu hoặc nền tảng DeFi hứa hẹn lợi nhuận đảm bảo thông qua một thuật toán tiên tiến nào đó, trong khi thực tế tất cả chỉ là khói và gương.
Một thủ đoạn thường gặp là lừa đảo “bot giao dịch AI”: Bạn được mời (thường qua Telegram hoặc Reddit) sử dụng một bot được cho là tận dụng AI để giao dịch tiền điện tử với lợi nhuận lớn. Bot thậm chí có thể hiển thị kết quả mô phỏng hoặc bản demo thực hiện một vài giao dịch có lãi trên tài khoản thử nghiệm. Nhưng một khi bạn nạp tiền của mình để bot giao dịch, nó bắt đầu thua lỗ – hoặc những kẻ lừa đảo đơn giản biến mất với tiền của bạn. Trong các trường hợp khác, kẻ lừa đảo quảng bá một “quỹ đầu tư AI” hoặc nhóm khai thác – bạn gửi tiền điện tử cho họ để đầu tư, bị lôi kéo bởi những từ khóa tiếp thị như “chiến lược điều khiển bởi AI độc quyền” – nhưng đó là một chương trình Ponzi. Những “nhà đầu tư” đầu tiên có thể nhận lại một chút để chứng minh rằng nó hoạt động, nhưng cuối cùng các kẻ điều hành biến mất với phần lớn số tiền, chỉ để lại một trang web bóng bẩy và không có trách nhiệm.
Trong thời kỳ sôi động của ChatGPT từ năm 2023–2024, hàng chục token tiền điện tử và nền tảng mới nổi lên tự nhận có yếu tố AI. Trong số đó, một số là dự án hợp pháp, nhưng nhiều dự án khác là những kế hoạch lừa đảo hoặc bơm-thổi-bán. Những kẻ lừa đảo sẽ thông báo một token gắn liền với phát triển AI, chờ tiền từ các nhà đầu tư háo hức đổ vào, rồi từ bỏ dự án (một vụ “rút thảm” kinh điển). Ý tưởng về AI đủ để tăng giá trị token trước khi sụp đổ. Chúng ta cũng chứng kiến tin tức giả được sử dụng: các video deepfake của Elon Musk và những người khác được dùng để ủng hộ “nền tảng giao dịch tiền điện tử AI” (như đã đề cập trước đó) để thúc đẩy các nạn nhân đầu tư. Ví dụ, một video deepfake khuyến khích mọi người đầu tư vào một nền tảng bằng cách tuyên bố nó sử dụng AI để đảm bảo lợi nhuận giao dịch – không hề có thứ gì tương tự tồn tại. Những kế hoạch này thường kết hợp sự tin tưởng vào người nổi tiếng với sự huyền bí của công nghệ AI để xuất hiện đáng tin cậy.
Không chỉ những kẻ lừa đảo nói dối về việc có AI, một số thực sự sử dụng AI để tăng cường ảo giác. TRM Labs đã ghi nhận một kế hoạch kim tự tháp lớn vào năm 2024 tên là MetaMax tuyên bố mang lại lợi nhuận cao khi tương tác với nội dung truyền thông xã hội. Để xuất hiện hợp pháp, trang web của MetaMax cho thấy một CEO và đội ngũ – nhưng “CEO” chỉ là một ảnh đại diện do AI tạo ra bằng công nghệ deepfake. Nói cách khác, không có người thực, chỉ là một hình ảnh AI và có thể một giọng nói AI, cam kết rằng MetaMax là điều lớn lao tiếp theo. Kế hoạch này vẫn thu về gần 200 triệu đô la (chủ yếu từ các nạn nhân ở Philippines) trước khi sụp đổ. Một trang web lừa đảo khác, babit.cc, còn đi xa đến mức tạo ra toàn bộ ảnh肖 của nhân viên qua AI thay vì sử dụng ảnh đánh cắp của người thực. Dù có thể ai đó nhận thấy sự hoàn hảo kỳ lạ trong những hình ảnh đó, mỗi tháng trôi qua làm cho các khuôn mặt do AI tạo ra trở nên sống động hơn. Dễ thấy cách mà các trang web lừa đảo tương lai có thể có một dàn nhân viên điều hành dường như đáng tin – không ai trong số họ tồn tại thực tế.
Cách tránh lừa đảo đầu tư theo chủ đề AI: Tiếp cận bất kỳ cơ hội đầu tư “quá tốt để là thật” với cực kỳ cẩn trọng – đặc biệt nếu nó quảng bá mạnh mẽ khả năng AI mà không có chi tiết rõ ràng. Làm bài tập về nhà của bạn: Nếu một dự án tuyên bố sử dụng AI, có tài liệu hợp pháp hoặc đội ngũ kinh nghiệm đứng sau không? Hãy cẩn thận nếu bạn không thể tìm thấy thông tin xác thực nào về người sáng lập (hoặc nếu thông tin duy nhất là các hồ sơ do AI tạo ra). Không bao giờ tin vào sự ủng hộ của người nổi tiếng trong không gian tiền điện tử trừ khi được xác nhận qua các kênh chính thức; 99% thời gian, những người như Musk, CZ, hoặc Vitalik không ngẫu nhiên đưa ra lời khuyên giao dịch hoặc các đề nghị nhân đôi quỹ. Nếu một bot giao dịch AI tốt đến vậy, hãy hỏi tại sao những người tạo ra nó lại bán quyền truy cập với giá rẻ hoặc tiếp thị trên Telegram – chẳng lẽ họ không sử dụng riêng để trở nên giàu có? Kiểm tra logic này thường tiết lộ vụ lừa đảo. Ngoài ra, hãy nhớ rằng lợi nhuận đảm bảo = cờ đỏ. Không quan trọng thuật toán tinh vi thế nào, thị trường tiền điện tử luôn có rủi ro. Các công ty hợp pháp sẽ rõ ràng về rủi ro và sẽ không hứa hẹn lợi nhuận cao cố định. Là một nhà đầu tư, hãy coi rằng kẻ lừa đảo thích các từ Buzz từ – “điều khiển bởi AI, lượng tử, đảm bảo, thuật toán bí mật” – đây là các móc câu cho những người nhẹ dạ. Cố gắng sử dụng các sàn giao dịch và nền tảng đã biết, và nếu bạn bị cám dỗ bởi dự án mới, chỉ đầu tư những gì bạn có thể mất đi sau khi tự mình xác nhận độc lập. Khi nghi ngờ, tìm ý kiến từ những tiếng nói đáng tin cậy trong cộng đồng. Thường thì một bài đăng nhanh trên diễn đàn hoặc Reddit về “Ai đã nghe về bot AI XYZ?” sẽ xuất hiện cảnh báo nếu nó là gian lận. Tóm lại, đừng để FOMO về đột phá AI làm mờ quyết định của bạn – điều duy nhất “tự động” trong nhiều trò gian lận này chính là sự trộm cắp tiền của bạn.
6. Danh tính Tổng hợp và Bỏ qua KYC với AI
Các vụ lừa đảo tiền điện tử thường liên quan đến một mạng lưới danh tính giả – không chỉ những người bị đóng giả với nạn nhân, mà còn cả các tài khoản và thực thể mà kẻ lừa đảo sử dụng. AI hiện nay cho phép những kẻ gian lận tạo ra các danh tính tổng hợp hoàn chỉnh theo yêu cầu, bỏ qua các biện pháp xác minh dự định để loại bỏ những kẻ mạo danh. Điều này có hai tác động chính: (1) Kẻ lừa đảo có thể mở tài khoản trên các sàn giao dịch hoặc dịch vụ dưới danh nghĩa giả dễ dàng hơn, và (2) họ có thể tạo ra bề ngoài hợp pháp cho các trang web lừa đảo của họ bằng cách đưa vào các “thành viên nhóm” hoặc lời chứng thực do AI tạo ra.
Ở phía tuân thủ, nhiều nền tảng tiền điện tử yêu cầu kiểm tra KYC (Know Your Customer) – ví dụ: tải lên một bức ảnh ID và một bức ảnh selfie. Để đáp trả, tội phạm đã bắt đầu sử dụng các công cụ AI để tạo ra các ID giả và ảnh selfie chỉnh sửa có thể vượt qua các kiểm tra này. Một phương pháp phổ biến là sử dụng các trình tạo hình ảnh AI hoặc kỹ thuật deepfake để kết hợp các yếu tố của ID thật hoặc tổng hợp hình ảnh của một người có nét tương tự với tên trên một ID bị đánh cắp. Có một câu chuyện gần đây trên Decrypt về việc mọi người sử dụng AI cơ bản để tạo hình ảnh bằng lái xe giả để lừa các sàn giao dịch và ngân hàng. Ngay cả các xác minh sinh trắc học cũng không an toàn: AI có thể xuất ra một video sinh động của một người cầm ID hoặc thực hiện bất kỳ động tác nào mà hệ thống yêu cầu. Về cơ bản, một kẻ lừa đảo có thể ngồi trước máy tính của mình và để AI điều khiển một người hư cấu để mở tài khoản. Những tài khoản này sau đó được sử dụng để rửa tiền điện tử đã bị đánh cắp hoặc lập ra các nền tảng lừa đảo. Đến khi các điều tra viên nhận ra “John Doe” đã rút hàng triệu không phải là người thật, dấu vết đã bị lạnh.
Tương tự, khi quảng bá các trò lừa đảo, việc có danh tính “được xác minh” giả mạo rất hữu ích. Chúng ta đã đề cập đến các CEO do AI tạo ra trong Mục 5 – đây là một phần của xu hướng rộng hơn. Kẻ lừa đảo có thể lấp đầy LinkedIn với các nhân viên không tồn tại (sử dụng ảnh chân dung AI và CV tự động tạo), tạo ra đánh giá từ người dùng giả với ảnh hồ sơ được tạo ra bởi GAN, và thậm chí tạo ra các đại diện hỗ trợ khách hàng giả. Một số nạn nhân đã báo cáo trò chuyện với những gì họ nghĩ là một nhân viên hỗ trợ từ sàn giao dịch (có thể qua một cửa sổ chat pop-up trên một trang lừa đảo), và đại diện đó có avatar và tên rất thực tế. Họ đâu biết rằng có thể đó là một bot AI được hỗ trợ bởi một nhân vật hư cấu. ThisPersonDoesNotExist (một công cụ AI tạo ra khuôn mặt ngẫu nhiên thực tế) đã là một lợi thế lớn cho những kẻ gian lận – mỗi khi một tài khoản lừa đảo hoặc hồ sơ bị gắn cờ, họ chỉ cần tạo ra khuôn mặt mới duy nhất cho cái tiếp theo, khiến các bộ lọc spam khó bắt kịp.
Ngay cả ngoài các trò lừa đảo nhắm vào người dùng cuối, việc lừa đảo danh tính được hỗ trợ AI đang tạo điều kiện phạm tội. Các băng nhóm có tổ chức sử dụng deepfakes để lừa các quy trình video-KYC của ngân hàng, cho phép họ lập các tài khoản giả mạo hoặc tài khoản sàn giao dịch có thể chuyển đổi tiền điện tử thành tiền mặt dưới danh nghĩa giả. Trong một trường hợp, Europol ghi nhận tội phạm sử dụng AI để vượt qua các hệ thống xác thực giọng nói tại ngân hàng bằng cách bắt chước giọng của chủ tài khoản. Và cơ quan thực thi pháp luật hiện thấy bằng chứng rằng tiền thu được từ các vụ lừa đảo tiền điện tử đang được sử dụng để trả cho các “bộ kit danh tính” AI – TRM Labs đã lần theo crypto từ các nạn nhân của lừa đảo pig butchering tới một nhà cung cấp dịch vụ AI, có khả năng để mua công cụ deepfake hoặc ID giả. Đó là một hệ sinh thái tội phạm đầy đủ: mua một danh tính giả, sử dụng nó để lập nên cơ sở hạ tầng lừa đảo, ăn cắp tiền, rửa qua các sàn giao dịch mở với nhiều ID giả khác.
Cách phòng chống lừa đảo danh tính tổng hợp: Đối với người dùng cá nhân, đây là ít về thứ bạn có thể trực tiếp gặp phải và nhiều hơn về việc nhận thức rằng ảnh hoặc “tài liệu” có thể bị làm giả. Nếu bạn đang làm việc với một nền tảng tiền điện tử hoặc dịch vụ mới, hãy cẩn thận thực hiện thẩm định: Đội ngũ có thực và có thể xác minh không? Nếu bạn gọi video với một “cố vấn tài chính” và có điều gì đó không ổn (ví dụ, các đặc điểm trên khuôn mặt hơi khác thường), hãy cân nhắc rằng có thể họ không thực như những gì họ tuyên bố. Đối với công ty, trách nhiệm là về việc củng cố KYC và phát hiện lừa đảo – ví dụ, sử dụng AI để chống lại AI, như kiểm tra xem liệu một bức ảnh ID có được tạo ra không hoặc một selfie có phải là deepfake hay không (có các thuật toán có thể phát hiện các lỗi nhỏ). Là người dùng, một mẹo có thể hành động là bảo vệ dữ liệu danh tính của chính bạn. Kẻ lừa đảo thường huấn luyện các mô hình deepfake của họ dựa trên thông tin họ có thể tìm về bạn trực tuyến. Giới hạn những gì bạn chia sẻ (ví dụ, không đăng video về bản thân công khai nếu tránh được, và giữ hồ sơ riêng tư) có thể giảm nguyên liệu thô sẵn có cho kẻ xấu. Ngoài ra, đảm bảo và yêu cầu các biện pháp bảo mật hơn chỉ kiểm tra ID – chẳng hạn, một số ngân hàng sẽ yêu cầu bạn xác nhận một cụm từ ngẫu nhiên trên video (khó hơn cho một deepfake thực hiện nhanh, mặc dù không phải là không thể). Cuối cùng, như Altman gợi ý, cách xác minh danh tính cần phát triển. Xác thực đa yếu tố và liên tục (không phải chỉ một lần chụp) an toàn hơn. Hiện tại, là người tiêu dùng, hãy ưu tiên dịch vụ có bảo mật vững chắc và nghi ngờ nếu một cá nhân hoặc trang web yêu cầu tài liệu cá nhân hoặc thông tin của bạn mà không có lý do vững chắc. Nếu bạn nghi ngờ một tài khoản hoặc hồ sơ là giả (có thể một hồ sơ xã hội mới liên lạc với bạn về đầu tư tiền điện tử), hãy chọn bên cẩn trọng và rút lui. Càng ít cơ hội bạn cho kẻ lừa đảo sử dụng các danh tính giả mạo lên bạn, càng tốt.
7. Bot Truyền Thông Xã Hội sử dụng AI và Kẻ Giả mạo
Những kẻ lừa đảo tiền điện tử đã lâu lướt qua các phương tiện truyền thông xã hội, từ Twitter và Facebook đến Telegram và Discord. Giờ đây, AI đang tăng tốc cho các bot và tài khoản giả tạo như vậy, làm cho các trò lừa đảo này hiệu quả hơn và khó phân biệt với người dùng thực tế hơn. Nếu bạn từng tweet về tiền điện tử và nhận được trả lời ngay lập tứcNội dung: cung cấp “hỗ trợ” hoặc thấy các yêu cầu kết bạn ngẫu nhiên từ những người hấp dẫn vào lĩnh vực tiền mã hóa, bạn có khả năng đã gặp phải vấn đề này. AI cho phép kẻ lừa đảo triển khai những đội quân bot đáng tin cậy hơn bao giờ hết.
Một mặt, AI sinh tạo cho phép mỗi bot có một “tính cách” riêng. Thay vì 1.000 bot cùng đăng một bình luận tiếng Anh bị lỗi về một chương trình tặng quà, mỗi bot giờ đây có thể tạo ra những bài đăng độc đáo, mạch lạc mà vẫn theo kịch bản nhưng tránh trùng lặp rõ ràng. Chúng thậm chí có thể tham gia vào cuộc trò chuyện. Ví dụ, trên các diễn đàn tiền mã hóa hoặc các nhóm Telegram, một bot AI có thể thâm nhập bằng cách hòa nhập, trò chuyện bình thường về thị trường hoặc NFT mới nhất, xây dựng độ tin cậy trong cộng đồng. Sau đó, khi chúng gửi tin nhắn riêng với một “cơ hội tuyệt vời” hoặc một liên kết lừa đảo, mục tiêu ít nghi ngờ hơn vì họ đã thấy tài khoản đó “bình thường” trong nhóm trong vài tuần. AI cũng có thể tạo ra những hình ảnh đại diện chân thực cho những bot này (sử dụng GAN hoặc tương tự), vì vậy bạn không thể chỉ tìm kiếm hình ảnh ngược để bắt lấy một bức ảnh bị đánh cắp. Nhiều tài khoản Twitter lừa đảo ngày nay có ảnh hồ sơ được tạo ra bởi AI – thường là của một người trông hấp dẫn, thân thiện – mà không có những lỗi nhận diện rõ ràng mà hình ảnh AI trước kia hay gặp. Ngay cả những tiểu sử và bài đăng cũng được viết bởi AI để trông giống thật.
Giả mạo tài khoản hợp pháp là một lĩnh vực khác mà AI giúp ích. Chúng ta đã đề cập đến việc giả mạo video/giọng nói deepfake, nhưng trên các nền tảng văn bản, kẻ mạo danh có thể chỉ cần sao chép hồ sơ của một nhân vật nổi tiếng hoặc bàn làm việc hỗ trợ. AI có thể hỗ trợ bằng cách nhanh chóng sản xuất hàng loạt các tài khoản giống nhau (ví dụ như những cái tên với lỗi chính tả nhỏ) và tạo ra nội dung phù hợp với phong cách của tài khoản chính thức. Khi các nạn nhân nhắn tin đến các tài khoản hỗ trợ giả này, các chatbot AI có thể xử lý tương tác, dẫn dắt họ qua các bước “xác minh” thực ra là đánh cắp thông tin. Loại hình lừa đảo trò chuyện này dễ dàng mở rộng quy mô với AI. Trong một vụ lừa đảo đáng chú ý, người dùng trong một cộng đồng Discord nhận được tin nhắn riêng từ những gì trông có vẻ như là một quản trị viên đưa ra sự giúp đỡ để nhận airdrop; các cuộc trò chuyện đó có thể đã được AI tiếp sức để thuyết phục người dùng kết nối ví của họ – rơi thẳng vào bẫy đánh cắp token. Chainalysis báo cáo rằng các chatbot AI đã được phát hiện thâm nhập vào các nhóm Discord/Telegram tiền mã hóa nổi tiếng, giả dạng quản trị viên và lừa người ta nhấp vào các liên kết độc hại hoặc tiết lộ khóa ví. Các bot thậm chí có thể trả lời theo thời gian thực nếu ai đó băn khoăn về chúng, sử dụng ngôn ngữ tự nhiên, khiến cho một số tín hiệu cảnh báo thông thường bị phớt lờ (như độ trễ dài hay trả lời không liên quan).
Quy mô của vấn đề rất lớn – một kẻ lừa đảo đơn lẻ (hoặc một nhóm nhỏ) có thể hiệu quả điều hành hàng trăm nhân viên AI điều khiển trong song song. Họ có thể sử dụng agent AI giám sát mạng xã hội để tìm kiếm các từ khóa nhất định (như “quên mật khẩu MetaMask”) và tự động phản hồi hoặc nhắn tin đến người dùng với một thông điệp lừa đảo đã được chuẩn bị sẵn. Trước thời kỳ AI, họ phải làm điều này thủ công hoặc sử dụng những kịch bản thô sơ dễ bị gắn cờ. Giờ đây, mọi thứ đều thích nghi hơn. Chúng ta cũng thấy AI được sử dụng để tạo ra sự tham gia giả: hàng ngàn bình luận và lượt thích từ các tài khoản bot làm cho một bài viết lừa đảo hoặc token lừa đảo có vẻ phổ biến. Ví dụ, một ICO lừa đảo có thể có hàng tá "nhà đầu tư" trên Twitter (tất cả đều là bot) ca ngợi dự án và chia sẻ lợi nhuận giả định của họ. Bất kỳ ai nghiên cứu về dự án đều thấy sự bàn tán tích cực và có thể bị lừa nghĩ rằng đó là sự phấn khích tự nhiên.
Cách đấu tranh chống lại lừa đảo bot trên mạng xã hội: Đầu tiên, nhận diện dấu hiệu của hoạt động bot. Nếu bạn nhận được một phản hồi chung chung ngay khi bạn đề cập đến một vấn đề liên quan đến tiền mã hóa trực tuyến, hãy cho rằng đó là ý đồ xấu. Đừng bao giờ nhấp vào các liên kết ngẫu nhiên gửi bởi người tiếp cận không mong đợi, ngay cả khi ảnh hồ sơ của họ trông đẹp. Kiểm tra hồ sơ cẩn thận: Tài khoản được tạo ra khi nào? Nó có lịch sử các bài đăng bình thường hay chủ yếu là thủ đoạn quảng cáo? Thường thì các bot có tài khoản mới hoàn toàn hoặc tỷ lệ người theo dõi/kết bạn kỳ lạ. Trên Telegram/Discord, điều chỉnh cài đặt quyền riêng tư của bạn để không cho phép tin nhắn từ các thành viên mà bạn không có chung nhóm, hoặc ít nhất hãy cảnh giác với bất kỳ ai nhắn tin từ nơi nào đó. Hỗ trợ chính thức hiếm khi sẽ nhắn tin cho bạn trước. Nếu ai đó giả danh một quản trị viên, lưu ý rằng những quản trị viên đáng tin cậy thường sẽ không cung cấp sự hỗ trợ thông qua nhắn tin riêng – họ sẽ chỉ dẫn bạn đến các kênh hỗ trợ chính thức. Nếu một tài khoản Twitter tuyên bố là hỗ trợ của một ví hoặc sàn giao dịch, hãy xác minh tên tài khoản với tên đã biết của công ty (kẻ lừa đảo thích hoán đổi “0” cho “O”, v.v.). Sử dụng công cụ nền tảng: Xác minh trả phí của Twitter không hoàn hảo, nhưng sự thiếu hụt dấu kiểm màu xanh trên một cái gọi là “Binance Support” giờ đây là một dấu hiệu lộ liễu. Đối với Discord, các cộng đồng đôi khi có các công cụ phát hiện bot – chú ý đến cảnh báo quản trị viên về các trò gian lận và bot.
Là người sử dụng, một trong những phòng thủ tốt nhất là sự hoài nghi lành mạnh đối với những “người lạ thân thiện” đưa ra sự giúp đỡ hoặc tiền bạc trực tuyến. Người thật có thể tốt bụng, nhưng trong lĩnh vực xã hội tiền mã hóa, sự giúp đỡ không mời thường chỉ là một trò lừa. Vì vậy, nếu bạn cảm thấy bối rối về một vấn đề tiền mã hóa, chống lại sự thôi thúc tin tưởng người đầu tiên nhắn tin cho bạn tuyên bố rằng họ có thể giải quyết việc đó. Thay vào đó, truy cập vào trang web chính thức của dịch vụ liên quan và làm theo quy trình hỗ trợ của họ. Bằng cách từ chối kẻ lừa đảo cơ hội tương tác ban đầu đó, toàn bộ ưu thế bot AI của họ sẽ vô hiệu hóa. Và cuối cùng, báo cáo và chặn ngay các tài khoản bot rõ ràng – nhiều nền tảng cải thiện khả năng phát hiện AI của họ dựa trên báo cáo của người dùng. Đây là một cuộc đua vũ trang đang diễn ra: AI đối đầu AI, với các nền tảng triển khai các thuật toán phát hiện để chống lại các bot độc hại. Nhưng cho đến khi họ hoàn thiện điều đó, luôn cảnh giác và không tham gia với bot có thể sẽ đi một chặng đường dài để giữ an toàn cho các tài sản tiền mã hóa của bạn.
8. Lừa đảo “Agent” Tự Động – Biên Giới Tiếp Theo
Nhìn về phía trước, viễn cảnh đáng lo ngại nhất là các hoạt động lừa đảo hoàn toàn tự động – các agent AI thực hiện các vụ lừa đảo từ đầu đến cuối với ít sự can thiệp của con người. Chúng tôi đã thấy các dấu hiệu ban đầu của điều này. Một agent AI về cơ bản là một chương trình phần mềm có thể đưa ra quyết định và thực hiện các nhiệm vụ nhiều bước riêng (thường bằng cách gọi các mô hình AI hoặc công cụ phần mềm khác). Các agent dựa trên ChatGPT mới được OpenAI công bố có khả năng duyệt web, sử dụng ứng dụng, và hành động như con người trực tuyến đã làm dấy lên cả sự phấn khích lẫn lo ngại. Các kẻ lừa đảo chắc chắn đang nhắm tới những khả năng này để mở rộng phạm vi lừa đảo đến mức chưa từng có.
Hãy tưởng tượng một agent AI được thiết kế cho lừa đảo: nó có thể quét các mạng xã hội tìm kiếm các mục tiêu tiềm năng (ví dụ như những người đăng bài về đầu tư tiền mã hóa hoặc cần hỗ trợ kỹ thuật), tự động khởi xướng tiếp xúc (qua DM hoặc email), tiếp tục cuộc trò chuyện mang phong thái thuyết phục được thông báo bởi tất cả dữ liệu mà nó đã thu thập về người đó, và dẫn họ tới một kết quả lừa đảo (như dẫn họ đến một trang web giả mạo hoặc thuyết phục họ gửi tiền mã hóa). Trong lúc đó, nó điều chỉnh chiến thuật của mình để phù hợp – nếu nạn nhân có vẻ hoài nghi, AI có thể thay đổi giọng điệu hoặc thử một câu chuyện khác, giống như một kẻ lừa đảo con người có thể làm. Nhưng AI có thể xoay xở hàng trăm nạn nhân đồng thời mà không mệt mỏi, và hoạt động 24/7. Điều này không phải khoa học viễn tưởng; các thành phần của nó đã tồn tại. Thực tế, TRM Labs cảnh báo rằng những kẻ lừa đảo đang sử dụng các agent AI để tự động hóa việc tiếp cận, dịch thuật, và thậm chí là rửa tiền – chẳng hạn, tóm tắt sự hiện diện trên mạng xã hội của một mục tiêu để tùy chỉnh trò lừa bịp, hoặc tối ưu hóa các kịch bản lừa đảo bằng cách phân tích những gì đã làm việc với các nạn nhân trước đó. Cũng có những cuộc trò chuyện về agent “nhân vật nạn nhân” mô phỏng một nạn nhân để thử nghiệm các kỹ thuật lừa đảo mới một cách an toàn. Đó là một sự sử dụng AI tinh quái – kẻ lừa đảo thử nghiệm trò lừa đảo trên AI trước khi triển khai cho bạn.
Về mặt kỹ thuật, một agent AI có thể tích hợp với nhiều công cụ khác nhau: gửi email, thực hiện cuộc gọi VoIP (với giọng nói AI), tạo ra các tài liệu, v.v. Chúng ta có thể sớm đối mặt với những cuộc gọi lừa đảo tự động mà một giọng nói AI gọi điện cho bạn tự xưng là từ phòng chống gian lận của ngân hàng của bạn và trò chuyện một cách thông minh. Hoặc một AI chiếm đoạt tài khoản email bị hack và trò chuyện với các liên lạc của nạn nhân để yêu cầu tiền. Các kết hợp có thể là vô tận. Cảnh báo nghiêm trọng của Sam Altman về AI đối kháng có thể “lấy hết tiền của mọi người” nêu rõ viễn cảnh này. Khi AI có thể đa nhiệm trên nhiều nền tảng – có thể sử dụng một instance GPT để trò chuyện với nạn nhân, một instance khác để hack mật khẩu yếu, một instance khác để chuyển tiền khi có thông tin đăng nhập – nó trở thành một dây chuyền sản xuất gian lận với hiệu quả siêu nhân. Và không giống như tội phạm con người, AI không mắc lỗi hoặc cần ngủ.
Cần ghi nhận rằng các chuyên gia an ninh và cơ quan thực thi pháp luật không đứng yên. Họ đang khám phá các giải pháp AI để đối phó với các mối đe dọa AI (sẽ có thêm thông tin về điều đó trong phần tiếp theo). Nhưng thực tế là khả năng mở rộng của các trò lừa đảo AI sẽ thách thức các biện pháp phòng vệ hiện có. Phát hiện gian lận cũ (các quy tắc đơn giản, từ khóa xấu đã biết, v.v.) có thể thất bại trước AI tạo ra các cuộc tấn công thích hợp ngữ cảnh biến đổi liên tục. Một nỗ lực phối hợp lớn – bao gồm các công ty công nghệ, cơ quan quản lý, và chính bản thân người dùng – sẽ cần thiết để giảm thiểu điều này. Các cơ quan quản lý đã bắt đầu thảo luận về yêu cầu ghi nhãn trên nội dung tạo ra bởi AI hoặc các phương pháp xác minh danh tính tốt hơn để chống lại deepfake. Trong thời gian chờ đợi, các phương pháp tiếp cận không tin tưởng (không tin tưởng, luôn xác minh) sẽ rất quan trọng trên cấp độ cá nhân.
Giữ an toàn trong thời đại của các agent AI: Nhiều lời khuyên đã được đưa ra vẫn là áo giáp tốt nhất của bạn – hoài nghi, xác minh độc lập, không tiết lộ quá nhiều dữ liệu mà các agent có thể khai thác, v.v. Khi các agent AI nổi lên, bạn nên gia tăng sự nghi ngờ với bất kỳ tương tác nào cảm nhận hơi “khác thường” hoặc quá theo kịch bản. Ví dụ, một AI có thể xử lý đa số của một cuộc trò chuyện lừa đảo nhưng gặp khó khăn với một câu hỏi bất ngờ – nếu ai đó lờ đi một câu hỏi cá nhân và tiếp tục thúc đẩy kịch bản của họ, hãy cảnh giác. Tiếp tục sử dụng xác thực đa yếu tố (MFA) trên các tài khoản của bạn; ngay cả khi một AI lừa bạn tiết lộ một mật khẩu, yếu tố thứ hai (và đặc biệt là khóa bảo mật vật lý) có thể ngăn chặn nó đăng nhập. Giám sát các tài khoản tài chính của bạn chặt chẽ để phát hiện các hành động không được ủy quyền – AI có thể khởi xướng giao dịch, nhưng nếu bạn bắt kịp chúng nhanh chóng, bạn có thể hủy hoặc ngược lại nó. Quan trọng, yêu cầu tính xác thực trong các giao tiếp quan trọng: nếu “ngân hàng của bạn” gửi email hoặc gọi, hãy nói rằng bạn sẽ gọi lại bằng số chính thức. Không Chân thành từ chối điều đó. Là người tiêu dùng, chúng ta cũng có thể thấy các công cụ mới xuất hiện (có thể nhờ AI hỗ trợ) để chúng ta xác minh nội dung – ví dụ, các plugin trình duyệt có thể đánh dấu văn bản do AI tạo hoặc video deepfake nghi ngờ. Việc cập nhật công nghệ bảo vệ như vậy và sử dụng nó sẽ giúp tạo ra một sân chơi bình đẳng.
Cuối cùng, trong cuộc chạy đua vũ trang AI này, sự cảnh giác của con người là tối quan trọng. Bằng cách nhận ra rằng người ở đầu kia có thể không phải là người, bạn có thể điều chỉnh mức độ tin cậy của mình cho phù hợp. Chúng ta đang bước vào một thời điểm bạn không thể thực hiện các tương tác kỹ thuật số chỉ dựa trên bề mặt. Mặc dù điều đó thật đáng lo ngại, nhưng việc biết về nó đã là một nửa của cuộc chiến. Các vụ lừa đảo có thể được tự động hóa, nhưng nếu bạn tự động hóa sự hoài nghi của mình để phản hồi – coi mọi yêu cầu không mong muốn là độc hại cho đến khi được chứng minh là khác – bạn bắt buộc ngay cả AI thông minh nhất cũng phải vượt qua một rào cản rất cao để lừa bạn.
9. Cách Chính quyền và Ngành Công nghiệp Đang Phản Công
Không phải tất cả đều ảm đạm - công nghệ AI cùng trao quyền cho kẻ lừa đảo cũng có thể được sử dụng để phát hiện và ngăn chặn gian lận, và có một nỗ lực đồng bộ đang được tiến hành để thực hiện điều đó. Các công ty phân tích blockchain, các công ty an ninh mạng và thực thi pháp luật ngày càng sử dụng AI và học máy để chống lại làn sóng lừa đảo tiền điện tử do AI hỗ trợ. Đó là một động lực cổ điển giữa mèo và chuột. Đây là cách "những người tốt" đang phản ứng:
-
Phát hiện lừa đảo do AI điều khiển: Các công ty như Chainalysis và TRM Labs đã tích hợp AI vào các nền tảng giám sát của họ để phát hiện các dấu hiệu lừa đảo. Chẳng hạn, các mô hình học máy phân tích văn bản từ hàng triệu tin nhắn để phát hiện những tín hiệu ngôn ngữ của sự tạo AI hoặc kỹ thuật xã hội. Họ cũng theo dõi các hành vi trên chuỗi – một báo cáo đã cho biết khoảng 60% các khoản tiền gửi vào ví lừa đảo hiện nay có liên kết với việc sử dụng AI. Bằng cách xác định các ví thanh toán cho dịch vụ AI hoặc có hành vi giao dịch tự động, các nhà điều tra có thể sớm phát hiện các hoạt động lừa đảo có khả năng xảy ra. Một số giải pháp chống phishing sử dụng nhận diện AI để nhận dạng các trang web giả mạo (quét các điểm không phù hợp đến mức pixel trong logo hoặc sự khác biệt nhỏ trong tên miền) nhanh hơn so với việc xem xét thủ công.
-
Cải tiến xác thực: Trước ý kiến của Altman rằng giọng nói và video không thể tin cậy, các tổ chức đang hướng đến việc xác thực mạnh mẽ hơn. Sinh trắc học có thể chuyển sang các thứ như dấu vân tay thiết bị hoặc hành vi sinh trắc học (cách bạn gõ phím hay lướt) mà khó để AI bắt chước hàng loạt. Các nhà quản lý đang thôi thúc các ngân hàng và sàn giao dịch triển khai xác thực đa yếu tố và xác thực ngoài băng đối với các giao dịch lớn – ví dụ, nếu bạn yêu cầu rút một lượng lớn tiền điện tử, có thể yêu cầu một cuộc gọi video trực tiếp mà bạn phải thực hiện một hành động ngẫu nhiên, khiến cho việc deepfake trả lời đúng trở nên khó khăn hơn. Fed và các cơ quan khác đang thảo luận các tiêu chuẩn để phát hiện các nỗ lực giả mạo AI, được thúc đẩy bởi các trường hợp như cuộc lừa đảo deepfake CFO trị giá 25 triệu đô la.
-
Chiến dịch nâng cao nhận thức: Các cơ quan biết rằng việc giáo dục công chúng là quan trọng. FBI, Europol và những bên khác đã phát hành cảnh báo và tổ chức hội thảo qua web để thông báo cho mọi người về thủ thuật lừa đảo AI. Điều này bao gồm các lời khuyên thực tế (nhiều trong số đó chúng tôi đã lặp lại trong bài viết này) như làm thế nào để phát hiện ra các artifact deepfake hoặc văn bản AI viết có mùi lừa đảo. Càng nhiều người biết phải tìm kiếm điều gì, các vụ lừa đảo càng kém hiệu quả. Một số khu vực pháp lý thậm chí đang xem xét bắt buộc phải có nhãn cảnh báo – ví dụ, yêu cầu các quảng cáo chính trị phải tiết lộ nội dung do AI tạo ra; những chính sách như vậy có thể áp dụng cho cả các chương trình khuyến mãi tài chính.
-
Các biện pháp pháp lý và chính sách: Trong khi công nghệ phát triển nhanh, có cuộc nói chuyện về việc thắt chặt luật pháp xung quanh việc lạm dụng deepfake. Một vài tiểu bang của Hoa Kỳ đã có luật chống lại các deepfake sử dụng trong các cuộc bầu cử hoặc giả danh ai đó để phạm tội, có thể được áp dụng cho các vụ lừa đảo. Các nhà điều tiết cũng đang xem xét trách nhiệm của các nhà cung cấp công cụ AI – nếu một sản phẩm như WormGPT rõ ràng được tạo ra cho tội phạm, họ có thể truy đuổi các nhà sáng tạo và người dùng của nó? Song song đó, các công ty AI chính thống đang làm việc để đánh dấu ngầm đầu ra do AI tạo ra hoặc cung cấp các cách để xác minh tính xác thực (OpenAI, chẳng hạn, đã nghiên cứu cách đánh dấu ngầm bằng mật mã văn bản GPT). Điều này có thể giúp phân biệt thật từ AI nếu được áp dụng rộng rãi.
-
Hợp tác và chia sẻ thông tin: Một điểm sáng là mối đe dọa của các tay lừa đảo AI đã thu hút sự hợp tác. Các sàn giao dịch tiền mã hóa, ngân hàng, nền tảng công nghệ và lực lượng thực thi pháp luật đang chia sẻ dữ liệu về các địa chỉ của kẻ lừa đảo, các kỹ thuật deepfake đã biết và xu hướng phishing. Ví dụ, nếu một sàn giao dịch nhận thấy một tài khoản có khả năng được mở với thông tin giả mạo, họ có thể thông báo cho người khác hoặc thực thi pháp luật, ngăn điều đó lặp lại ở nơi khác. Sau các sự cố lớn, các nhóm ngành thực hiện các cuộc họp để học cách AI được sử dụng và truyền bá các chiến lược giảm thiểu.
-
Hỗ trợ và can thiệp cho nạn nhân: Nhận thấy rằng nhiều nạn nhân quá xấu hổ để báo cáo (chúng tôi nhớ chỉ khoảng 15% báo mất mát), một số cơ quan đã trở nên chủ động hơn. Chiến dịch Operation Level Up của FBI vào năm 2024 thực sự đã xác định hàng ngàn nạn nhân của trò lừa đảo pig butchering trước khi họ nhận ra mình bị lừa, thông qua phân tích dòng tiền, và đã ngăn chặn thêm 285 triệu đô la mất mát bằng cách cảnh báo họ kịp thời. Nói cách khác, phát hiện tốt hơn cho phép can thiệp theo thời gian thực. Nhiều sáng kiến như vậy, có thể hỗ trợ AI, có thể cứu các nạn nhân tiềm năng bằng cách phát hiện các mẫu lừa đảo sớm hơn trong vòng lặp (ví dụ, các giao dịch lặp đi lặp lại không bình thường đến một nền tảng giả).
Cuối cùng, để đánh bại các vụ lừa đảo do AI hỗ trợ sẽ cần "cả làng": công nghệ phòng thủ, người dùng được thông tin, quy định cập nhật, và sự hợp tác thực thi pháp luật xuyên biên giới. Mặc dù những kẻ lừa đảo đã chứng minh khả năng tích hợp AI vào quy trình làm việc của chúng, các biện pháp đối phó cũng đang gia tăng song song. Đó là một cuộc chiến đang tiếp diễn, nhưng không phải là một cuộc chiến thua cuộc. Bằng cách duy trì nhận thức về cả các mối đe dọa và giải pháp đang xuất hiện, cộng đồng tiền mã hóa có thể thích ứng. Hãy nghĩ theo cách này – có, những kẻ lừa đảo có công cụ mới mạnh mẽ, nhưng chúng ta cũng như vậy. AI có thể giúp sắp xếp qua khối lượng lớn dữ liệu để tìm ra kim trong đống cỏ khô (như nhóm lại mạng lưới ví lừa đảo hoặc phát hiện nội dung deep giả). Nó cũng có thể giúp giáo dục, thông qua các mô phỏng đào tạo hỗ trợ AI dạy mọi người cách phản hồi các vụ tấn công lừa đảo.
10. Tự Bảo Vệ: Những Điều Quan Trọng Cần Nhớ Để An Toàn
Sau khi khám phá ra nhiều cách AI bị lạm dụng để đánh cắp tiền điện tử, hãy chắt lọc một số mẹo bảo vệ thực tế. Đây là những thói quen và biện pháp phòng ngừa có thể khiến bạn trở thành mục tiêu khó khăn, ngay cả khi các vụ lừa đảo đang tiến hóa:
-
Hãy hoài nghi với những liên hệ không được yêu cầu: Cho dù đó là một cuộc gọi video bất ngờ từ một "người bạn," một DM đề nghị trợ giúp, hay một email về cơ hội đầu tư, hãy giả định đó có thể là lừa đảo. Thật buồn chúng ta phải nghĩ theo cách này, nhưng đó là dòng phòng thủ đầu tiên. Coi mọi liên hệ mới hoặc yêu cầu khẩn cấp là có khả năng gian lận cho đến khi được xác minh qua kênh thứ hai.
-
Xác minh danh tính qua nhiều kênh: Nếu bạn nhận được liên lạc được cho là của một người hay công ty mà bạn đã biết, hãy xác nhận bằng cách khác. Gọi cho người đó theo số mà bạn đã biết, hoặc gửi email vào địa chỉ hỗ trợ chính thức từ trang web của công ty. Đừng dựa vào thông tin liên lạc được cung cấp trong tin nhắn nghi ngờ – tìm kiếm độc lập.
-
Chậm lại và xem xét kỹ nội dung: Những kẻ lừa đảo (dù là người hay AI) dựa vào việc bắt bạn mất cảnh giác. Dành chút thời gian để phân tích các tin nhắn và phương tiện. Kiểm tra những dấu hiệu nhỏ của deepfake (các artefacts trực quan lạ, vấn đề đồng bộ giọng nói) và phishing (tên miền sai chính tả, yêu cầu không tự nhiên cho tổ chức). Nếu điều gì đó có vẻ "sai" dù chỉ một chút về ngữ cảnh hoặc cách viết của một thông điệp theo như người mà nó tự nhận là từ, hãy tin vào bản năng của bạn và điều tra thêm.
-
Sử dụng các biện pháp an ninh mạnh mẽ: Kích hoạt xác thực hai yếu tố (2FA) trên tất cả các tài khoản tiền điện tử và email. Ưu tiên 2FA bằng ứng dụng hoặc thiết bị cứng hơn là SMS nếu có thể (tấn công hoán đổi SIM là một nguy cơ khác). Cân nhắc sử dụng ví phần cứng cho số tiền lớn – ngay cả khi kẻ lừa đảo lừa được bạn, chúng không thể chuyển tiền mà không có thiết bị vật lý. Giữ các thiết bị của bạn an toàn với phần mềm và phần mềm chống virus cập nhật, để bảo vệ khỏi bất kỳ phần mềm độc hại nào lọt vào.
-
Giữ thông tin cá nhân riêng tư: Càng ít thông tin về bạn trên mạng để kẻ lừa đảo AI khai thác, AI của họ có ít dữ liệu để làm việc hơn. Đừng chia sẻ chi tiết nhạy cảm trên các diễn đàn công cộng (như email, điện thoại, thông tin tài chính). Hãy cẩn trọng với những gì bạn đăng trên mạng xã hội – những cập nhật cá nhân thú vị hoặc đoạn âm thanh đó có thể bị thu thập để nhắm mục tiêu bạn bằng AI (ví dụ, đào tạo một bản sao giọng nói). Đồng thời, kiểm tra cài đặt quyền riêng tư để người lạ không thể nhắn tin cho bạn hoặc thấy nội dung của bạn.
-
Giữ cho bản thân và người khác hiểu biết: Luôn cập nhật về xu hướng lừa đảo mới nhất. Tìm hiểu về các kỹ thuật deepfake mới hoặc chiến lược phishing để bạn nhận ra chúng. Chia sẻ kiến thức này với bạn bè và gia đình, đặc biệt là những người ít am hiểu về công nghệ hơn, vì họ có thể gặp rủi ro lớn hơn. Ví dụ, giải thích cho những người thân lớn tuổi rằng AI giờ đây có thể giả mạo giọng nói, vì vậy họ nên luôn xác minh một cú gọi khẩn cấp. Trao quyền cho mọi người xung quanh bạn để họ cảnh giác hơn.
-
Sử dụng các nguồn tin cậy và ứng dụng chính thức: Khi quản lý tiền điện tử, chỉ sử dụng các ứng dụng và trang web chính thức. Đừng theo các liên kết được gửi cho bạn – nhập thủ công URL sàn giao dịch hoặc ví. Nếu bạn đang khám phá các dự án hoặc bot mới, hãy khảo sát kỹ độ tin cậy của chúng (tìm kiếm đánh giá, tin tức, nền tảng của nhóm). Chỉ tải phần mềm từ cửa hàng chính thức hoặc trang web của dự án, không từ các liên kết ngẫu nhiên hoặc tệp được gửi đến bạn.
-
Tận dụng công cụ bảo mật: Xem xét các tiện ích mở rộng trình duyệt hoặc dịch vụ chặn các trang phishing đã biết. Một số trình quản lý mật khẩu sẽ cảnh báo bạn nếu bạn truy cập một tên miền không xác định không khớp với trang web đã lưu. Các nhà cung cấp email ngày càng sử dụng AI để đánh dấu các email có khả năng lừa đảo - chú ý các cảnh báo đó. Cũng có những công cụ phát hiện deepfake đang nổi lên (cho hình ảnh/video); tuy không hoàn hảo, chúng có thể cung cấp thêm một lớp đảm bảo nếu bạn chạy một video nghi ngờ qua chúng.
-
Tin tưởng, nhưng luôn xác minh – hoặc tốt nhất là không tin tưởng: Trong tiền điện tử, một chút hoài nghi có thể cứu vãn tài sản của bạn. Nếu có trường hợp bạn phải tin ai đó (chẳng hạn như một giao dịch OTC hoặc...Nội dung: đối tác kinh doanh mới), hãy thực hiện việc kiểm tra kỹ lưỡng và có thể thậm chí yêu cầu một cuộc gặp trực tiếp cho các giao dịch lớn. Khi liên quan đến tiền của bạn, việc kiểm tra hai lần là hoàn toàn hợp lý. Như câu tục ngữ nói, “Đừng tin, hãy xác minh” – mặc dù ban đầu nói về các giao dịch blockchain, câu này nay cũng áp dụng cho các cuộc giao tiếp.
-
Báo cáo và tìm kiếm sự giúp đỡ nếu bị nhắm tới: Nếu bạn gặp phải một nỗ lực lừa đảo, hãy báo cáo với các nền tảng (họ sẽ hành động để loại bỏ các tài khoản độc hại) và với các trang web như Chainabuse hoặc các trang về gian lận của chính phủ. Điều này giúp cộng đồng và có thể hỗ trợ điều tra. Và nếu không may bạn trở thành nạn nhân, hãy liên hệ ngay với cơ quan chức năng – mặc dù việc phục hồi là khó khăn, nhưng báo cáo sớm sẽ cải thiện cơ hội. Thêm vào đó, trường hợp của bạn có thể cung cấp thông tin quý báu để ngăn chặn những người khác bị lừa đảo.
Tóm lại, sự gia tăng của các trò gian lận tiền mã hóa sử dụng trí tuệ nhân tạo là một thách thức nghiêm trọng, nhưng không phải là không thể vượt qua. Bằng cách biết được “sách lược” của kẻ thù – deepfakes, sao chép giọng nói, chatbots AI, đầu tư AI giả mạo, và hơn thế nữa – bạn có thể dự đoán được những động thái của họ và tránh những cạm bẫy. Công nghệ sẽ tiếp tục phát triển ở cả hai bên. Ngày nay là các video deepfake và email viết bằng GPT; ngày mai có thể là những sự lừa lọc tinh vi hơn. Tuy nhiên, cốt lõi thì hầu hết các trò gian lận vẫn kêu gọi bạn làm điều gì đó đi ngược lại lợi ích tốt nhất của mình – gửi tiền, tiết lộ bí mật, vượt qua các biện pháp bảo vệ. Đó là dấu hiệu để bạn dừng lại và áp dụng những kiến thức mà bạn đã học được. Hãy duy trì tỉnh táo, cập nhật thông tin, và bạn có thể vượt qua ngay cả những trò lừa đảo do máy móc điều khiển thông minh nhất. Phòng thủ mạnh nhất của bạn cuối cùng là tư duy phản biện của chính bạn. Trong một thế giới đầy những điều giả tạo nhân tạo, sự hoài nghi thực sự là vô giá.