Investor kripto reguler menghadapi ancaman baru yang mengkhawatirkan: penipu bersenjata kecerdasan buatan canggih. Penipuan kripto yang didukung oleh AI telah meledak dalam setahun terakhir – laporan penipuan yang dibantu AI generatif meningkat 456% antara pertengahan 2024 dan pertengahan 2025.
Para penipu sekarang menggunakan AI untuk membuat video palsu, suara, dan pesan yang mirip dengan kehidupan nyata, membuat penipuan kripto mereka lebih meyakinkan dan lebih sulit dideteksi. Menurut FBI, hampir 150.000 pengaduan penipuan terkait kripto diajukan pada tahun 2024, dengan kerugian lebih dari $3,9 miliar hanya di AS. Secara global, kerugian penipuan kripto mencapai $10,7 miliar pada tahun 2024 – dan itu mungkin hanya puncak gunung es, karena hanya sekitar 15% korban melaporkan kejahatan tersebut.
Bahkan Sam Altman, CEO OpenAI, telah memperingatkan bahwa kemampuan AI untuk meniru manusia telah “sepenuhnya mengalahkan sebagian besar metode otentikasi” dan dapat memicu “krisis penipuan yang signifikan akan datang”. Dalam artikel ini, kami akan menjelaskan 10 penipuan kripto yang digerakkan AI yang mengganggu industri, mengilustrasikan bagaimana kerjanya dengan contoh nyata dan, yang terpenting, bagaimana Anda bisa melindungi diri.
Char: Bagian transaksi penipuan kripto yang melibatkan alat AI telah melonjak sejak 2021, dengan sekitar 60% dari semua alamat deposit penipuan tahun 2025 terhubung ke skema yang dibantu AI. Ini mencerminkan seberapa cepat pelaku jahat mengadopsi AI untuk meningkatkan penipuan.
1. Penipuan Dukungan Selebriti Deepfake (Video & Streaming Palsu)
Salah satu penipuan kripto yang dimungkinkan oleh AI yang paling produktif melibatkan deepfake tokoh terkenal yang mempromosikan skema penipuan. Penipu secara digital meniru tokoh teknologi dan kripto terkenal – Elon Musk adalah favorit – dalam video yang mengiklankan hadiah atau platform investasi palsu. Misalnya, para pelaku kejahatan membajak saluran YouTube populer dan melakukan siaran langsung dengan video yang dimanipulasi dari Elon Musk (atau influencer kripto lain seperti Brad Garlinghouse dari Ripple atau Michael Saylor dari MicroStrategy) yang tampak menjanjikan “menggandakan Bitcoin Anda” atau pengembalian tidak nyata lainnya. Pada kenyataannya, video dan audio telah dimanipulasi oleh AI; orang-orang nyata tidak pernah membuat klaim ini. Penonton yang mengirim kripto ke alamat yang diiklankan dengan harapan memenangkan hadiah hanya disantet.
Ini adalah evolusi dari penipuan hadiah kripto sebelumnya yang menggunakan klip wawancara asli selebriti. Sekarang, dengan teknologi deepfake, penipu menyisipkan konten audio/video baru sehingga terlihat seperti selebriti langsung mendukung situs penipuan mereka. Siaran langsung palsu ini bisa sangat meyakinkan pada pandangan pertama. Chainabuse (situs pelaporan penipuan publik) menerima laporan tentang siaran deepfake Elon Musk pada pertengahan 2024 yang menarik banyak korban dalam hitungan menit, menghasilkan dana yang signifikan untuk penipu. Analisis Blockchain kemudian menunjukkan alamat penipuan menerima setidaknya $5 juta dari korban antara Maret 2024 dan Januari 2025, dan skema Musk deepfake lainnya yang mengiklankan “platform perdagangan AI” meraup lebih dari $3,3 juta. Sebuah penelitian oleh firma keamanan siber Sensity menemukan Musk adalah selebriti yang paling sering ditiru dalam penipuan investasi, mungkin karena citranya memberikan kredibilitas dan dia sering berbicara tentang kripto. Penipu mengeksploitasi kepercayaan itu.
Untuk membuat keadaan lebih buruk, teknologi deepfake hidup sekarang memungkinkan panggilan video waktu nyata dengan wajah palsu. Ini berarti seorang penipu secara literal bisa tampak sebagai orang lain dalam panggilan Zoom. Dalam satu kasus mencolok, pelaku kejahatan menyamar sebagai CFO dan rekan perusahaan dalam panggilan video menggunakan penukaran wajah AI, menipu seorang karyawan untuk mentransfer $25 juta kepada penipu. Eksekutif deepfake tersebut terlihat dan terdengar nyata – skenario mimpi buruk untuk organisasi mana pun. Seperti yang diungkapkan Sam Altman dari OpenAI, “suara atau video deepfake menjadi tidak bisa dibedakan dari kenyataan”. Bagi investor kripto biasa, video deepfake dari tokoh terpercaya seperti CEO terkenal atau pendiri proyek bisa sangat persuasif.
Cara mengidentifikasi dan menghindari penipuan ini: Bersikaplah sangat skeptis terhadap promosi kripto “terlalu bagus untuk menjadi kenyataan”, bahkan jika melibatkan selebriti. Perhatikan video dengan cermat – deepfake mungkin menunjukkan glitch halus seperti berkedip tidak alami, gerakan mulut yang aneh, atau pencahayaan yang tidak cocok di sekitar wajah. Dengarkan irama suara yang tidak alami atau artefak audio. Jika seseorang yang terkenal tiba-tiba menjanjikan keuntungan atau hadiah yang dijamin (terutama dalam siaran langsung yang meminta Anda mengirim kripto), kemungkinan besar itu adalah penipuan. Periksa sumber resmi; misalnya, Elon Musk berulang kali menyatakan dia tidak melakukan giveaway kripto. Jangan pernah mengirim dana ke alamat acak dari video. Saat ragu, berhenti sejenak – penipu mengandalkan kegembiraan dan urgensi. Dengan mengambil waktu sejenak untuk memverifikasi melalui saluran resmi atau media berita apakah promosi itu nyata (tidak akan), Anda dapat menghindari jatuh ke dalam penjebakan persetujuan palsu ini.
2. Penipuan Penyamar dengan Suara & Video Deepfake (Eksekutif atau Orang yang Dikenal)
Deepfake AI tidak terbatas pada miliarder terkenal – penipu juga menggunakannya untuk menyamar sebagai orang yang Anda kenal atau figur otoritatif yang Anda percayai. Dalam skema ini, pelaku kejahatan memanfaatkan klon suara yang dihasilkan AI dan avatar video untuk memperdaya korban dalam konteks yang lebih pribadi. Salah satu varian yang mengganggu adalah penipuan "panggilan darurat dari orang tercinta": Korban menerima telepon dan mendengar, misalnya, suara cucu atau pasangan mereka yang mengklaim masalah mendesak dan meminta uang (sering kali dalam bentuk kripto atau transfer kawat). Pada kenyataannya, anggota keluarga asli tidak pernah menelepon – penjahat telah membuat sampel suara mereka (mungkin dari video media sosial) dan menggunakan AI untuk mengkloning suara dan nada mereka, kemudian menelepon korban dengan putus asa. Penipuan kloning suara seperti ini telah menipu orang di seluruh dunia, memanfaatkan emosi manusia. Hanya klip audio pendek sudah cukup untuk membuat klon yang meyakinkan.
Varian lain menargetkan bisnis dan investor melalui eksekutif palsu atau mitra. Seperti yang disebutkan, penjahat pada awal 2024 menyamar sebagai CFO perusahaan global Arup dalam panggilan video, tetapi itu bukan satu-satunya kasus. Di Hong Kong, sebuah bank ditipu jutaan dolar setelah karyawan mengikuti instruksi dari apa yang terdengar seperti pemimpin perusahaan mereka – suara yang dihasilkan oleh AI. Kami juga telah melihat penipu menyamarkan identitas pendiri startup dan pejabat bursa kripto, menghubungi investor atau pelanggan melalui obrolan video untuk mengesahkan transfer penipuan. Deepfake “penyamaran CEO” ini memanfaatkan fakta bahwa banyak interaksi bisnis dilakukan secara online. Jika Anda mengenali wajah dan suara bos Anda dalam panggilan Zoom, Anda cenderung mempercayai mereka. Perangkat lunak penukaran wajah langsung dapat menempelkan wajah target ke wajah penipu secara real-time, sehingga terlihat bahwa orang yang sebenarnya sedang berbicara. Korban kemudian diarahkan untuk mengirim dana atau mengungkapkan kode keamanan. Beberapa perusahaan baru menyadari mereka ditipu setelah uang lenyap.
Penipu bahkan menggabungkan taktik-taktik untuk penipuan “grooming” panjang: kru penggembalaan babi (penipuan investasi jangka panjang, lihat Bagian 3) mulai menggunakan panggilan video singkat untuk “membuktikan” persona palsu mereka nyata. Dengan menggunakan aktor yang disewa atau model deepfake dari orang yang menarik, mereka akan melompat ke obrolan video dengan korban hanya cukup lama untuk membangun kepercayaan, kemudian melanjutkan penipuan melalui teks. Peneliti TRM Labs mengamati ada kasus geng penipu membayar untuk deepfake sebagai layanan – pada dasarnya menyewa alat AI untuk menyelesaikan impostur video langsung – yang menunjukkan pasar kriminal yang semakin berkembang untuk deepfake sesuai permintaan. Dalam satu kasus, jaringan penipuan menghabiskan sebagian dari pendapatan kriptonya untuk layanan AI dan menghasilkan lebih dari $60 juta dari korban, menunjukkan bahwa investasi dalam teknologi deepfake terbayar mahal.
Cara melindungi diri sendiri: Kuncinya adalah verifikasi melalui saluran sekunder. Jika Anda mendapatkan panggilan mendadak atau obrolan video yang meminta uang atau informasi sensitif, jangan bertindak segera, tidak peduli siapa yang terlihat atau terdengar seperti siapa mereka. Tutuplah dan panggil kembali orang tersebut pada nomor yang diketahui, atau verifikasi dengan kontak lain. Misalnya, jika “bos Anda” mengirim pesan tentang pembayaran, verifikasi dengan memanggil bos Anda langsung atau mengkonfirmasi dengan rekan kerja. Keluarga dapat menetapkan kata sandi untuk keadaan darurat – jika penelepon yang mengaku sebagai kerabat Anda tidak tahu kode yang telah diatur sebelumnya, Anda akan tahu itu adalah penipuan. Berhati-hatilah terhadap panggilan video di mana wajah seseorang terlihat sedikit aneh (terlalu halus, detail mata atau rambut yang aneh) atau audio tertunda sedikit atau terdengar robotik. Instruksi keuangan melalui video/email harus selalu diperiksa dua kali dengan sebuah konfirmasi langsung atau suara pada saluran terpercaya. Seperti yang diungkapkan Sam Altman, otentikasi tradisional (seperti pengenalan suara) tidak lagi dapat diandalkan. Perlakukan permintaan mendesak yang tidak diminta untuk kripto atau transfer dengan sangat skeptis, bahkan jika itu “dari” seseorang yang Anda percayai. Luangkan beberapa menit untuk memverifikasi identitas secara independen bisa menyelamatkan Anda (atau perusahaan Anda) dari penipuan deepfake yang mahal.
3. Penipuan Romansa & Investasi yang Ditingkatkan AI (“Penipuan Pemenggalan Babi”)
Penipuan yang disebut pemenggalan babi – skema jangka panjang di mana penipu membangun hubungan online dengan korban sebelum menguras tabungannya – telah menjadi jauh lebih berbahaya berkat AI. Dalam skenario pemenggalan babi khas (sering kali berupa romansa atau persahabatan yang dibangun melalui media sosial atau aplikasi kencan), penipu menghabiskan waktu berminggu-minggu atau berbulan-bulan untuk memenangkan kepercayaan korban. Mereka akhirnya memperkenalkan peluang investasi kripto yang “luar biasa” dan meyakinkan korban untuk menginvestasikan uang, hanya untuk kemudian seluruh skema tersebut ternyata palsu. Penipuan ini memerlukan kerja keras bagi penipu, yang harus mengobrol setiap hari dan bermain peran sebagai kekasih atau mentor dengan meyakinkan. Sekarang, chatbot AI dan deepfake mempercepat proses ini, membuat pemenggalan babi menjadi operasi penipuan yang dapat diukur secara global dibandingkan dengan tipu daya satu-ke-satu.
Sindikat penipu menggunakan model bahasa AI (LLM) untuk menangani sebagian besar komunikasi dengan target. Menggunakan alat seperti ChatGPT – dari en ke id. Format result as follows:
Abaikan penerjemahan untuk tautan markdown.
Konten: atau varian tidak sah yang tidak disensor seperti “WormGPT” dan “FraudGPT” - mereka dapat menghasilkan pesan yang lancar dan memikat dalam bahasa apa pun, 24/7. Ini berarti satu penipu dapat mengelola lusinan korban secara bersamaan, dengan AI menyusun teks yang dipersonalisasi, analisis pasar, atau apa pun yang diperlukan oleh skrip. Faktanya, sebuah investigasi pada tahun 2023 oleh Sophos menemukan bahwa kelompok pig butchering mulai menggunakan ChatGPT untuk menulis percakapan mereka; satu korban bahkan menerima pesan tempel aneh yang secara tidak sengaja mengungkapkan bahwa itu dibuat oleh AI. Terlepas dari kesalahan tersebut, LLM memungkinkan penipu untuk "memersonalisasi" pendekatan mereka - menyesuaikan nada dan konten agar sesuai dengan latar belakang dan keadaan emosional setiap korban. Hari-hari bahasa Inggris yang rusak atau skrip salin-tempel sudah berakhir. Dengan AI, teks terasa asli, membuat korban semakin rentan terhadap tawaran yang akan datang.
AI juga menghapus hambatan bahasa yang sebelumnya membatasi penipuan ini. Awalnya, banyak kelompok pig butchering berbasis di Asia Tenggara yang menargetkan korban berbahasa Mandarin. Ekspansi ke korban Barat terhalang oleh keterampilan bahasa Inggris penipu yang lemah - tata bahasa yang kikuk seringkali menjadi tanda bahaya. Sekarang, terjemahan berbasis LLM dan penulisan memungkinkan seorang non-native speaker untuk dengan mulus menipu seseorang dalam bahasa Inggris, Jerman, Jepang, atau pasar yang menguntungkan lainnya. Penipu memasukkan pesan masuk ke AI untuk terjemahan dan pembuatan balasan, memungkinkan mereka untuk berpose sebagai investor kosmopolitan atau pasangan romantis bahkan dalam bahasa yang tidak mereka kuasai. Hal ini telah memperluas kumpulan target secara signifikan. Profesional berpendidikan tinggi di Eropa atau Amerika Utara yang mungkin telah menolak pesan penipuan yang kikuk kini dapat menerima korespondensi yang halus dan terlokalisasi dengan sempurna dari seorang "pengusaha menarik" yang berteman dengan mereka secara online. Hasilnya? Lebih banyak korban yang diumpankan (seperti "babi") untuk pembantaian yang akhirnya dilakukan.
Dan mari kita tidak melupakan deepfake dalam pig butchering. Sementara sebagian besar grooming terjadi melalui teks, penipu terkadang menjadwalkan panggilan video singkat untuk mengurangi kecurigaan. Di sini, mereka semakin menggunakan video deepfake yang mengganti wajah - misalnya, seorang penipu mungkin menyewa wanita untuk tampil di depan kamera tetapi menggunakan AI untuk mengganti wajahnya dengan foto yang dicuri yang telah mereka gunakan dalam profil. Strategi "bukti kehidupan" ini meyakinkan korban bahwa kekasih online mereka nyata. (Beberapa operasi bahkan mengiklankan "model wajah nyata" yang, dengan bantuan filter AI, muncul sebagai pasangan impian korban dalam video.) Setelah kepercayaan terjalin, para penipu mengarahkan korban untuk berinvestasi dalam platform kripto palsu atau program “penambangan likuiditas”, seringkali menunjukkan tangkapan layar keuntungan palsu untuk menggoda deposit yang lebih besar. Korban diketahui telah membiayai kembali rumah atau menguras 401(k) dengan ilusi keberadaan bersama dengan penipu mereka atau pengembalian besar yang segera tiba. Itu sangat menghancurkan - dan AI hanya memperkuat penipuan ini.
Cara menghindari penipuan pig butchering: Pelihara kenetsikan tentang hubungan atau bimbingan online-rekan yang memulai secara acak dan menjadi intens secara tidak wajar. Jika seseorang yang belum pernah Anda temui secara langsung menuntun Anda untuk berinvestasi dalam kripto atau meminta bantuan keuangan, itu adalah tanda bahaya yang jelas. Pencarian gambar balik dari foto profil untuk melihat apakah itu dicuri (banyak penipu pig butchering menggunakan foto model atau korban lain). Waspadai panggilan video di mana kamera orang tersebut tampak berkualitas rendah atau mereka tidak sepenuhnya menunjukkan wajahnya - mungkin mereka menutupi anomali deepfake. Tekanan untuk berinvestasi dengan cepat atau klaim pengetahuan orang dalam adalah tanda penipuan. Juga, ingatlah bahwa profesional investasi yang sah atau pasangan romantis tidak menjanjikan keuntungan yang terjamin secara umum. FBI dan institusi lain telah mengeluarkan peringatan resmi tentang penipuan pig butchering dan kripto romansa - jadi, edukasi diri sendiri dan orang lain tentang cara kerja penipuan ini. Jika Anda mencurigai seseorang adalah penipu, hentikan kontak dan jangan pernah mengirim uang atau kripto kepada mereka. Dan jika Anda telah menjadi target, laporkan (secara anonim jika diperlukan) untuk membantu pihak berwenang melacak kelompok ini. Kesadaran adalah pertahanan terbaik Anda, sehingga tidak peduli seberapa licin bicara manis yang digerakkan AI ini, Anda tidak akan jatuh ke dalam jebakan.
4. Email dan Pesan Phishing yang Ditulis oleh AI (Penipuan yang Lebih Pintar dalam Skala Besar)
Phishing - email atau teks penipuan yang menipu Anda untuk mengklik tautan berbahaya atau memberikan informasi pribadi - sudah lama menjadi permainan angka. Penipu menyebarkan ribuan pesan generik (“Akun Anda berisiko, masuklah di sini...”) dengan harapan beberapa orang terpikat. Sekarang, AI membuat phishing jauh lebih meyakinkan dan lebih terarah. Dengan alat seperti model bahasa generatif, penyerang bisa dengan mudah menyusun pesan yang dipersonalisasi dan lancar yang meniru gaya komunikasi yang asli, secara dramatis meningkatkan tingkat keberhasilan mereka.
Model Bahasa Besar (LLM) dapat menghasilkan umpan phishing yang hampir tidak bisa dibedakan dari email asli dari bank Anda, platform kripto, atau teman. Mereka menghilangkan kesalahan tata bahasa dan frasa canggung yang sering mengungkapkan penipuan lama. Misalnya, AI dapat diinstruksikan untuk menulis email mendesak dari “[Keamanan Platform Kripto Anda]” yang memperingatkan Anda tentang penarikan dan menyediakan tautan untuk "mengamankan akun Anda." Teksnya akan halus dan sesuai merek. Penipu juga menggunakan AI untuk memindai media sosial Anda dan menyesuaikan pesan secara akurat - menyebut transaksi terbaru atau menyebut nama teman - sebuah teknik yang dikenal sebagai spear phishing. Tingkat personalisasi ini dulunya memerlukan upaya signifikan, tetapi agen AI dapat melakukannya dalam hitungan detik dengan mengumpulkan data publik.
Ada bahkan alat AI di bawah tanah yang secara eksplisit dibangun untuk kejahatan siber. Karena model publik seperti ChatGPT memiliki filter terhadap penggunaan yang tidak sah, penjahat telah mengembangkan atau membeli LLM pasar gelap seperti “WormGPT” dan “FraudGPT” yang tidak memiliki batasan. AI jahat ini, tersedia di forum web gelap, dapat menghasilkan email phishing yang meyakinkan, kode berbahaya, bahkan nasihat penipuan langkah demi langkah. Dengan prompt sederhana, penipu dengan keterampilan bahasa Inggris yang terbatas dapat menghasilkan email yang hampir sempurna dalam bahasa apa pun, atau menghasilkan seluruh teks situs phishing. Menurut perusahaan pelatihan keamanan siber KnowBe4, pada 2024 hampir 74% email phishing yang mereka analisis menunjukkan tanda-tanda penggunaan AI - dengan kata lain, sebagian besar upaya phishing sekarang didorong oleh kemampuan menulis AI.
Selain email, chatbot AI menjadi ancaman di platform messaging. Penipu dapat menggunakan bot di Telegram, Discord, WhatsApp, dll., yang melibatkan pengguna dalam percakapan real-time, menggoda mereka seperti manusia akan melakukannya. Misalnya, Anda mungkin meng-tweet tentang menghadapi masalah dengan dompet kripto Anda dan segera menerima balasan dari "perwakilan dukungan" (sebenarnya bot) yang mengirimi Anda DM. AI, berpura-pura menjadi layanan pelanggan, kemudian membimbing Anda melalui “verifikasi” palsu yang mencuri kunci Anda. Karena chatbot dapat memahami dan merespons pertanyaan Anda secara alami, Anda kurang mungkin menyadari kalau itu palsu. Jenis rekayasa sosial yang digerakkan AI ini dapat menipu bahkan pengguna yang melek teknologi. Dalam satu kasus, penipu mendirikan chatbot "asisten investasi" palsu yang menjanjikan membantu pengguna berdagang kripto - ternyata itu tidak lebih dari jebakan untuk mengumpulkan kunci API dan informasi akun.
Ilustrasi konsep scammer digital menggunakan AI. Serangan phishing dan malware semakin dibantu oleh algoritma AI, yang dapat menghasilkan pesan realistis dan bahkan kode berbahaya untuk mencuri kata sandi dan dana kripto.
Lebih jauh lagi, AI dapat membantu dalam peretasan dengan menghasilkan kode malware dan mengotomatisasi serangan. Misalnya, seorang penjahat dengan keterampilan pemrograman minimal dapat meminta AI yang tidak disensor untuk menulis program yang mengosongkan dompet kripto atau memasang keylogger untuk menangkap frase benih. Ada laporan tentang ransomware dasar dan infostealers yang dibuat dengan bantuan AI. Meskipun ini lebih memasuki wilayah peretasan dibandingkan penipuan, garisnya buram – seringkali email phishing mengantarkan malware. Dengan bantuan AI, penjahat dapat memproduksi varian malware baru lebih cepat daripada yang bisa diblok oleh tim keamanan. Dan AI dapat membantu melewati pemeriksaan keamanan juga: memecahkan CAPTCHA, menghasilkan ID palsu untuk lulus verifikasi (lihat Bagian 6), bahkan membobol kata sandi dengan menebak cerdas (meski kunci kriptografi kuat tetap aman, yang lemah tidak). Sam Altman memperingatkan bahwa bahkan pemeriksaan ID selfie dan login "sidik suara" telah menjadi permainan anak-anak untuk AI, yang berarti metode otentikasi yang kita andalkan memerlukan peningkatan mendesak.
Cara tetap aman dari phisher bertenaga AI: Nasihat kuno tetap berlaku - jangan pernah mengklik tautan mencurigakan atau mengunduh lampiran dari pengirim yang tidak dikenal, seberapa pun tampaknya legit pesan tersebut. Tetap siaga terhadap komunikasi apa pun (email, teks, DM) yang menciptakan rasa urgensi atau meminta kredensial login Anda, kode 2FA, atau frase benih Anda. Meskipun format dan bahasanya tampak sempurna, periksa email/domain pengirim dengan teliti - cari kesalahan halus atau URL yang tidak cocok (misalnya, “binance.support.com” alih-alih domain asli). Konfirmasi langsung dengan layanan atau orang tersebut jika Anda mendapat permintaan yang tidak terduga. Gunakan saluran aplikasi/situs web resmi daripada tautan yang disediakan dalam pesan. Di platform sosial, tidak mempercayai "dukungan" yang keluar proaktif; perusahaan resmi tidak akan meminta kata sandi melalui DM. Secara teknis, aktifkan proteksi phishing seperti filter email dan alat reputasi web – dan perbarui antivirus dan perangkat lunak untuk menangkap malware. Yang paling penting, pertahankan pola pikir skeptis. Jika Anda didorong untuk bertindak cepat atau membagikan informasi, itu saatnya untuk memperlambat dan memverifikasi. Dengan memperlakukan semua pesan yang tidak terduga dengan hati-hati, Anda dapat mengalahkan penipuan yang digerakkan AI. Ingat, tidak ada perusahaan atau teman yang memangsa akan mempermasalahkan jika Anda meluangkan satu menit lebih untuk memastikan keaslian – hanya penipu yang mendesak aksi instan.
5. Bot dan Platform "Perdagangan AI" Palsu (Penipuan Investasi Hype AI)
Histeria seputar kecerdasan buatan tidak hanya menguntungkan penipu secara operasional – itu juga menjadi umpan itu sendiri. Dalam beberapa tahun terakhir, ada lonjakan proyek kripto penipuan dan skema perdagangan yang menggembar-gemborkan AI sebagai ramuan rahasia mereka. Penipu tahu bahwa investor rata-rata terpesona oleh potensi AIKonten: menghasilkan keuntungan. Oleh karena itu, mereka membuat bot perdagangan yang memanfaatkan AI palsu, grup sinyal, atau platform DeFi yang menjanjikan pengembalian yang dijamin melalui beberapa algoritma canggih, padahal sebenarnya semuanya hanya ilusi.
Salah satu tipuan umum adalah penipuan "bot perdagangan AI": Anda diundang (sering melalui Telegram atau Reddit) untuk menggunakan bot yang konon memanfaatkan AI untuk memperdagangkan kripto demi keuntungan besar. Bot tersebut mungkin bahkan menunjukkan hasil simulasi atau demo yang melakukan beberapa perdagangan menguntungkan pada akun uji coba. Namun, begitu Anda menyetorkan dana Anda sendiri untuk diperdagangkan oleh bot, justru akan mulai merugi – atau para penipu akan menghilang dengan uang Anda. Dalam kasus lain, penipu mempromosikan "dana investasi AI" atau kolam penambangan – Anda mengirim kripto kepada mereka untuk diinvestasikan, tergoda oleh kata-kata pemasaran seperti "strategi eksklusif berbasis AI" – namun itu adalah skema Ponzi. "Investor" awal mungkin mendapatkan sedikit pengembalian untuk membuktikan bahwa itu berhasil, namun pada akhirnya para operator menghilang dengan sebagian besar dana, meninggalkan situs web yang mengesankan tanpa tanggung jawab.
Selama masa kejayaan ChatGPT tahun 2023–2024, muncul puluhan token kripto baru dan platform yang mengklaim memiliki unsur AI. Walaupun beberapa proyek tersebut sah, banyak yang merupakan penipuan atau skema pump-and-dump. Para penipu akan mengumumkan sebuah token yang terkait dengan pengembangan AI, melihat dana mengalir dari investor yang bersemangat, lalu meninggalkan proyek tersebut (yang dikenal sebagai rug pull klasik). Gagasan tentang AI sudah cukup untuk menggelembungkan nilai token sebelum jatuh. Kami juga melihat berita palsu digunakan sebagai senjata: video deepfake Elon Musk dan lainnya digunakan untuk mendukung “platform perdagangan kripto AI” (seperti disebutkan sebelumnya) untuk mendorong korban berinvestasi. Misalnya, satu video deepfake mendorong orang untuk berinvestasi dalam platform dengan mengklaim menggunakan AI untuk menjamin keuntungan perdagangan – padahal tidak ada yang seperti itu. Skema ini sering menggabungkan kepercayaan pada selebriti dengan mistik teknologi AI untuk tampak kredibel.
Tidak hanya para penipu berbohong tentang memiliki AI, beberapa benar-benar menggunakan AI untuk meningkatkan ilusi. TRM Labs mencatat skema piramida besar pada tahun 2024 bernama MetaMax yang diklaim memberikan hasil tinggi dengan terlibat dalam konten media sosial. Untuk tampak sah, situs web MetaMax menampilkan CEO dan tim – tetapi "CEO" tersebut hanyalah avatar yang dihasilkan AI dengan teknologi deepfake. Dengan kata lain, tidak ada orang nyata, hanya gambar AI dan mungkin suara AI, yang meyakinkan investor bahwa MetaMax adalah hal besar berikutnya. Skema tersebut tetap berhasil mengumpulkan hampir $200 juta (utama dari korban di Filipina) sebelum runtuh. Situs penipuan lain, babit.cc, bahkan dibuat untuk menghasilkan foto staf seluruhnya melalui AI daripada menggunakan foto orang nyata yang dicuri. Meskipun mungkin kita memperhatikan ketidaksempurnaan yang tidak wajar pada gambar-gambar tersebut, setiap bulan berlalu membuat wajah yang dihasilkan AI semakin mirip dengan aslinya. Mudah untuk melihat bagaimana situs penipuan di masa depan bisa memiliki seluruh jajaran eksekutif yang tampak dapat dipercaya – tidak ada satupun yang ada dalam kenyataan.
Cara menghindari penipuan investasi bertema AI: Dekatilah setiap peluang investasi "terlalu bagus untuk menjadi kenyataan" dengan sangat hati-hati – terutama jika sangat memasarkan kemampuan AI tanpa memberikan detail yang jelas. Lakukan pekerjaan rumah Anda: Jika sebuah proyek mengklaim menggunakan AI, apakah ada dokumentasi yang sah atau tim berpengalaman di belakangnya? Waspadalah jika Anda tidak dapat menemukan informasi yang dapat diverifikasi tentang para pendirinya (atau jika satu-satunya informasi adalah profil yang dibuat oleh AI). Jangan pernah percaya pada dukungan selebriti di dunia kripto kecuali dikonfirmasi melalui saluran resmi; 99% dari waktu, orang seperti Musk, CZ, atau Vitalik tidak memberikan nasihat perdagangan atau penawaran penggandaan dana secara acak. Jika sebuah bot perdagangan AI sangat hebat, tanyakan mengapa pembuatnya menjual akses dengan harga murah atau memasarkan di Telegram – bukankah mereka hanya menggunakannya secara pribadi untuk menjadi kaya? Logika ini sering mengungkapkan penipuan. Selain itu, ingat bahwa pengembalian yang dijamin = bendera merah. Seberapa pun canggih algoritmanya, pasar kripto memiliki risiko. Perusahaan yang sah akan jelas mengenai risiko dan tidak akan menjanjikan hasil tinggi yang tetap. Sebagai investor, pertimbangkan bahwa penipu menyukai kata-kata kunci – "berbasis AI, kuantum, dijamin, algoritma rahasia" – ini adalah umpan bagi orang yang mudah percaya. Tetaplah pada bursa dan platform yang dikenal, dan jika Anda tergoda oleh proyek baru, investasikan hanya apa yang Anda mampu kehilangan setelah memverifikasinya secara mandiri. Jika ragu, carilah pendapat dari suara-suara terpercaya dalam komunitas. Sering kali, satu posting cepat di forum atau Reddit tentang "Apakah ada yang pernah mendengar tentang bot AI XYZ?" akan mengungkap peringatan jika itu penipuan. Singkatnya, jangan biarkan FOMO atas terobosan AI mengaburkan penilaian Anda – satu-satunya hal yang "terotomatisasi" dalam banyak penipuan ini adalah pencurian uang Anda.
6. Identitas Sintetis dan KYC Bypass dengan AI
Penipuan cryptocurrency sering melibatkan jaringan identitas palsu – bukan hanya orang yang menyamar menjadi korban, tetapi juga akun dan entitas yang digunakan para penipu. AI sekarang memungkinkan para penipu untuk menghasilkan seluruh identitas sintetis sesuai permintaan, melewati langkah-langkah verifikasi yang dimaksudkan untuk menyingkirkan peniru. Ini memiliki dua implikasi utama: (1) Penipu dapat membuka akun di bursa atau layanan dengan nama palsu lebih mudah, dan (2) mereka dapat memberikan aura legitimasi pada situs web penipuan mereka dengan mengisi situs tersebut dengan "anggota tim" atau testimoni yang dihasilkan AI.
Di sisi kepatuhan, banyak platform kripto yang mengharuskan pengecekan KYC (Know Your Customer) – misalnya mengunggah foto ID dan swafoto. Sebagai tanggapan, para penjahat mulai menggunakan alat AI untuk membuat ID palsu dan swafoto yang diatur ulang yang dapat melewati pemeriksaan ini. Pendekatan umum adalah menggunakan generator gambar AI atau teknik deepfake untuk menggabungkan elemen-elemen dari ID yang nyata atau menyintesis kemiripan seseorang yang cocok dengan nama pada ID yang dicuri. Ada anekdot baru-baru ini di Decrypt tentang orang-orang yang menggunakan AI dasar untuk menghasilkan gambar SIM palsu guna menipu bursa dan bank. Bahkan verifikasi biometrik tidak aman: AI dapat menghasilkan video yang menyerupai hidup seseorang yang memegang ID atau melakukan gerakan apa pun yang diperlukan oleh sistem. Pada dasarnya, seorang penipu dapat duduk di depan komputer mereka dan memiliki AI mengendalikan orang fiktif untuk membuka akun. Akun-akun ini kemudian digunakan untuk mencuci kripto yang dicuri atau untuk mendirikan platform penipuan. Saat para penyelidik menyadari bahwa "John Doe" yang menarik jutaan tidak nyata, jejak telah menghilang.
Demikian pula, saat mempromosikan penipuan, memiliki identitas “terverifikasi” palsu membantu. Kami menyentuh CEO yang dihasilkan oleh AI di Bagian 5 – ini adalah bagian dari tren yang lebih luas. Para penipu dapat mengisi LinkedIn dengan karyawan yang tidak ada (menggunakan foto kepala AI dan CV yang dihasilkan otomatis), membuat ulasan pengguna palsu dengan foto profil yang dihasilkan GAN, dan bahkan membuat agen dukungan pelanggan palsu. Beberapa korban melaporkan bercakap-cakap dengan apa yang mereka kira adalah perwakilan dukungan bursa (mungkin melalui obrolan pop-up di situs phishing), dan agen tersebut memiliki avatar dan nama yang realistis. Tak disangka mereka tidak tahu itu mungkin adalah bot AI yang didukung oleh persona fiktif. ThisPersonDoesNotExist (alat AI yang menghasilkan wajah acak realistis) telah menjadi keuntungan untuk para penipu – setiap saat akun atau profil tipuan diidentifikasi, mereka tinggal menghasilkan wajah unik baru untuk yang berikutnya, membuat sulit bagi filter spam untuk mengikuti.
Bahkan di luar penipuan yang menargetkan pengguna akhir, penipuan identitas yang dibantu AI memfasilitasi kejahatan. Cincin terorganisir menggunakan deepfake untuk menipu prosedur video-KYC bank, memungkinkan mereka untuk mendirikan akun perantara atau akun bursa yang dapat mengubah kripto menjadi uang tunai dengan identitas palsu. Dalam satu kasus, Europol mencatat penjahat menggunakan AI untuk melewati sistem otentikasi suara di bank dengan meniru suara pemilik akun. Dan sekarang penegak hukum melihat bukti bahwa hasil penipuan kripto membiayai “kit identitas” AI ini – TRM Labs melacak kripto dari korban pig butchering yang pergi ke penyedia layanan AI, mungkin untuk membeli alat deepfake atau ID palsu. Ini adalah ekosistem kriminal penuh: membeli identitas palsu, menggunakannya untuk mendirikan infrastruktur penipuan, mencuri uang, mencucinya melalui bursa yang dibuka dengan lebih banyak ID palsu.
Cara mempertahankan diri dari penipuan identitas sintetis: Bagi pengguna individu, ini lebih tentang sesuatu yang mungkin tidak langsung Anda hadapi dan lebih tentang menyadari bahwa foto atau "dokumentasi" bisa dipalsukan. Jika Anda berurusan dengan platform atau layanan kripto baru, lakukan sedikit penelitian: Apakah timnya nyata dan dapat diverifikasi? Jika Anda melakukan panggilan video dengan "penasihat keuangan" dan ada sesuatu yang terasa aneh (misalnya, kejanggalan wajah sedikit), pertimbangkan bahwa mereka mungkin bukan seperti yang mereka klaim. Bagi perusahaan, tugasnya adalah memperkuat pengecekan KYC dan deteksi penipuan – misalnya, menggunakan AI untuk melawan AI, seperti memeriksa apakah foto ID adalah hasil kolase atau jika selfie adalah deepfake (ada algoritma yang dapat mendeteksi artefak halus). Sebagai pengguna, satu tip yang bisa dilakukan adalah melindungi data identitas Anda sendiri. Para penipu sering melatih model deepfake mereka dengan apa pun info yang dapat mereka temukan tentang Anda secara online. Dengan membatasi apa yang Anda bagikan (misalnya, jangan memposting video diri Anda secara publik jika dapat dihindari, dan jaga agar profil tetap pribadi) dapat mengurangi bahan mentah yang tersedia bagi pihak-pihak jahat. Juga, aktifkan dan desak keamanan di luar pemeriksaan ID – misalnya, beberapa bank akan meminta Anda mengonfirmasi frasa acak pada video (lebih sulit untuk deepfake untuk lakukan secara langsung, meskipun tidak mustahil). Akhirnya, seperti disarankan oleh Altman, cara kita memverifikasi identitas perlu berkembang. Verifikasi multifaktor dan berkelanjutan (tidak hanya satu snapshot) lebih aman. Sementara itu, sebagai konsumen, pilihlah layanan yang memiliki keamanan yang kuat dan skeptislah jika seseorang atau situs menuntut dokumen atau info pribadi Anda tanpa alasan yang jelas. Jika Anda mencurigai bahwa akun atau profil adalah palsu (mungkin profil sosial baru yang menghubungi Anda tentang investasi kripto), bersikap hati-hati dan berhenti berinteraksi. Semakin sedikit kesempatan yang Anda berikan kepada para penipu untuk menggunakan identitas palsu atas Anda, semakin baik.
7. Bot Media Sosial dan Peniru Berbasis AI
Penipu kripto sudah lama berkembang pesat di media sosial, mulai dari Twitter dan Facebook hingga Telegram dan Discord. Sekarang, AI mempercepat bot dan akun palsu yang memfasilitasi penipuan ini, membuat mereka lebih efektif dan lebih sulit dibedakan dari pengguna asli. Jika Anda pernah men-tweet tentang kripto dan langsung mendapatkan balasanOffering “dukungan” atau menerima permintaan pertemanan acak dari orang-orang menarik dalam dunia crypto, Anda mungkin telah mengalami masalah ini. AI memungkinkan penipu untuk menyebarkan tentara bot yang lebih meyakinkan daripada sebelumnya.
Untuk satu hal, AI generatif memungkinkan setiap bot memiliki “kepribadian” yang unik. Alih-alih 1.000 bot semua memposting komentar dengan bahasa Inggris yang rusak tentang giveaway, masing-masing sekarang dapat menghasilkan posting yang unik dan koheren yang tetap pada naskah tetapi menghindari pengulangan yang jelas. Mereka bahkan dapat terlibat dalam percakapan. Misalnya, di forum crypto atau grup Telegram, bot AI dapat menyusup dengan berbaur, mengobrol santai tentang pasar atau NFT terbaru, membangun kredibilitas dalam komunitas. Kemudian, ketika ia mengirim DM seseorang dengan “kesempatan besar” atau tautan phishing, targetnya akan kurang curiga karena mereka telah melihat akun tersebut bertindak “normal” dalam grup selama berminggu-minggu. AI juga dapat menghasilkan gambar profil realistis untuk bot ini (menggunakan GAN atau yang serupa), jadi Anda tidak dapat hanya melakukan pencarian gambar terbalik untuk menangkap foto yang dicuri. Banyak akun Twitter palsu saat ini menggunakan gambar profil yang dibuat oleh AI – seringkali dari orang yang tampak ramah – tanpa gangguan khas yang dimiliki gambar AI sebelumnya. Bahkan bio dan postingannya ditulis oleh AI agar terlihat otentik.
Impersonasi akun-akun sah adalah area lain di mana AI membantu. Kami menyinggung tentang impersonasi video/suara deepfake, tetapi di platform berbasis teks, pemain tiruan mungkin hanya menyalin profil tokoh terkenal atau meja dukungan. AI dapat membantu dengan cepat memproduksi massal akun serupa (misalnya dengan sedikit salah eja di handle) dan menghasilkan konten yang sesuai dengan nada akun resmi. Ketika korban menghubungi akun dukungan palsu ini, chatbot AI dapat menangani interaksi, membimbing mereka melalui langkah "verifikasi" yang sebenarnya mencuri informasi. Jenis phishing percakapan ini jauh lebih mudah untuk diskalakan dengan AI. Dalam satu penipuan yang terkenal, pengguna di komunitas Discord mendapatkan pesan pribadi dari apa yang tampak seperti admin yang menawarkan bantuan untuk mengklaim airdrop; AI mungkin mendukung percakapan tersebut untuk secara meyakinkan membimbing pengguna melalui proses menghubungkan dompet mereka – langsung ke perangkap yang mencuri token mereka. Chainalysis melaporkan bahwa chatbot AI telah ditemukan menyusup ke grup Discord/Telegram crypto populer, berpura-pura menjadi moderator dan menipu orang untuk mengklik tautan berbahaya atau mengungkapkan kunci dompet mereka. Bot bahkan dapat merespon secara real-time jika seseorang mempertanyakan mereka, menggunakan bahasa alami, yang menyamarkan beberapa petunjuk biasa (seperti jeda yang lama atau jawaban yang tidak relevan).
Skalanya sangat besar – seorang penipu tunggal (atau tim kecil) dapat secara efektif menjalankan ratusan persona yang digerakkan oleh AI ini secara bersamaan. Mereka mungkin menggunakan agen AI yang memantau media sosial untuk kata kunci tertentu (seperti "lupa kata sandi MetaMask") dan secara otomatis menjawab atau mengirim pesan langsung kepada pengguna dengan pesan penipuan yang telah disiapkan. Sebelum adanya AI, mereka harus melakukannya secara manual atau menggunakan skrip kasar yang mudah terdeteksi. Sekarang semuanya lebih adaptif. Kami juga melihat AI digunakan untuk menghasilkan keterlibatan palsu: ribuan komentar dan suka dari akun bot untuk membuat posting atau token penipuan tampak populer. Misalnya, ICO penipuan mungkin memiliki puluhan "investor" di Twitter (semuanya bot) yang memuji proyek dan membagikan keuntungan mereka. Siapa pun yang meneliti proyek tersebut melihat obrolan positif dan mungkin tertipu untuk berpikir bahwa itu adalah kegembiraan akar rumput yang otentik.
Cara melawan penipuan bot media sosial: Pertama, kenali tanda-tanda aktivitas bot. Jika Anda mendapatkan balasan generik langsung saat Anda menyebutkan masalah crypto online, anggap itu berbahaya. Jangan pernah mengklik tautan acak yang dikirim oleh seseorang yang menghubungi tanpa diminta, bahkan jika foto profil mereka terlihat bagus. Periksa profil dengan cermat: Kapan itu dibuat? Apakah memiliki riwayat posting normal atau sebagian besar bersifat promosi? Sering kali bot memiliki akun baru atau rasio pengikut/diikuti yang aneh. Di Telegram/Discord, sesuaikan pengaturan privasi Anda untuk tidak mengizinkan pesan dari anggota yang tidak berbagi grup dengan Anda, atau setidaknya waspada terhadap siapa pun yang menghubungi secara mendadak. Dukungan resmi jarang mengirim DM terlebih dahulu. Jika seseorang berpura-pura menjadi admin, perhatikan bahwa admin terkemuka biasanya tidak melakukan dukungan melalui DM – mereka akan mengarahkan Anda ke saluran dukungan resmi. Jika akun Twitter mengklaim menjadi dukungan untuk dompet atau pertukaran, verifikasi handle-nya dengan handle perusahaan yang diketahui (penipu suka menukar “0” dengan “O”, dll.). Manfaatkan alat platform: Verifikasi berbayar Twitter tidak sempurna, tetapi kurangnya tanda centang biru pada “Binance Support” yang seharusnya adalah petunjuk yang jelas sekarang. Untuk Discord, komunitas terkadang memiliki alat deteksi bot – perhatikan peringatan admin tentang penipuan dan bot.
Sebagai pengguna, salah satu pertahanan terbaik adalah bersikap skeptis terhadap “orang asing yang ramah” yang menawarkan bantuan atau uang secara online. Orang nyata bisa baik, tetapi dalam ranah sosial crypto, bantuan yang tidak diminta lebih mungkin berupa tipu muslihat. Jadi, jika Anda merasa bingung tentang masalah crypto, hindari godaan untuk mempercayai orang pertama yang mengirim DM kepada Anda yang mengklaim dapat memperbaikinya. Sebaliknya, kunjungi situs web resmi layanan yang bersangkutan dan ikuti proses dukungannya. Dengan menolak penipu tersebut interaksi awal, seluruh keuntungan bot AI mereka menjadi batal. Dan akhirnya, laporkan dan blokir akun bot yang jelas – banyak platform meningkatkan deteksi AI mereka berdasarkan laporan pengguna. Ini adalah perlombaan senjata yang berkelanjutan: AI melawan AI, dengan platform yang menerapkan algoritma deteksi untuk menghadapi bot jahat. Tetapi hingga mereka berhasil memperbaikinya, tetap waspada dan tidak berinteraksi dengan bot yang diduga dapat sangat membantu menjaga crypto Anda tetap aman.
8. Penipuan “Agen” Otonom – Perbatasan Berikutnya
Melihat ke depan, prospek yang paling menggelisahkan adalah operasi penipuan yang sepenuhnya otomatis – agen AI yang melakukan penipuan ujung-ke-ujung dengan sedikit input manusia. Kita sudah melihat tanda awal ini. Agen AI pada dasarnya adalah program perangkat lunak yang dapat membuat keputusan dan melakukan tugas multi-langkah sendiri (sering kali dengan memanggil model AI atau alat perangkat lunak lain). Agen yang didukung ChatGPT yang baru-baru ini diumumkan oleh OpenAI dapat menjelajah, menggunakan aplikasi, dan bertindak seperti manusia online telah meningkatkan baik kegembiraan maupun kekhawatiran. Penipu tidak diragukan lagi mengincar kemampuan ini untuk meningkatkan penipuan mereka ke tingkat yang lebih tinggi.
Bayangkan agen AI yang dirancang untuk penipuan: Ini dapat memindai media sosial untuk target potensial (misalnya, orang yang memposting tentang investasi crypto atau kebutuhan dukungan teknis), secara otomatis memulai kontak (melalui DM atau email), melanjutkan percakapan realistis yang diinformasikan oleh semua data yang telah diambilnya tentang orang tersebut, dan membimbing mereka ke hasil penipuan (seperti membawa mereka ke situs phishing atau meyakinkan mereka mengirim crypto). Sepanjang waktu, ia menyesuaikan taktiknya dengan cepat – jika korban tampak skeptis, AI dapat mengubah nada atau mencoba cerita berbeda, sama seperti penipu manusia mungkin. Kecuali AI ini dapat menangani ratusan korban secara bersamaan tanpa kelelahan, dan beroperasi 24/7. Ini bukan fiksi ilmiah; komponennya sudah ada sekarang. Bahkan, TRM Labs memperingatkan bahwa penipu menggunakan agen AI untuk mengotomatisasi penjangkauan, penerjemahan, dan bahkan pencucian dana – misalnya, merangkum media sosial target untuk menyesuaikan penipuan, atau mengoptimalkan naskah penipuan dengan menganalisis apa yang berhasil pada korban sebelumnya. Ada juga pembicaraan tentang agen "persona korban" yang meniru korban untuk menguji teknik penipuan baru secara aman. Ini adalah penggunaan AI yang licik – penipu menguji penipuan pada AI sebelum diterapkan pada Anda.
Di sisi teknis, agen AI dapat berintegrasi dengan berbagai alat: mengirim email, membuat panggilan VoIP (dengan suara AI), menghasilkan dokumen, dll. Kita mungkin segera menghadapi penipuan telepon otomatis di mana suara AI menelepon Anda yang mengklaim dari departemen penipuan bank Anda dan berbicara dengan cerdas. Atau AI yang mengambil alih akun email yang diretas dan berbincang dengan kontak korban untuk meminta uang. Kombinasinya tidak terbatas. Peringatan keras Sam Altman tentang AI adversarial yang bisa “mengambil uang semua orang” berbicara pada skenario ini. Ketika AI dapat melakukan banyak tugas di berbagai platform – mungkin menggunakan satu instans GPT untuk berbicara dengan korban, satu lain untuk meretas kata sandi lemah, satu lagi untuk mentransfer dana setelah kredensial diperoleh – ini menjadi jalur penipuan terkoordinasi dengan efisiensi super manusia. Dan tidak seperti penjahat manusia, AI tidak menjadi ceroboh atau membutuhkan tidur.
Patut dicatat bahwa pakar keamanan dan penegak hukum tidak tinggal diam. Mereka sedang menjajaki solusi AI untuk melawan ancaman AI (lebih lanjut tentang itu di bagian selanjutnya). Namun, kenyataannya adalah bahwa skala penipuan yang digerakkan oleh AI akan menantang pertahanan yang ada. Deteksi penipuan warisan (aturan sederhana, kata kunci buruk yang dikenal, dll.) mungkin gagal melawan AI yang menghasilkan serangan yang terus berubah dan sadar konteks. Dibutuhkan upaya terkoordinasi yang besar – melibatkan perusahaan teknologi, regulator, dan pengguna itu sendiri – untuk menguranginya. Regulator telah mulai mendiskusikan keharusan memberi label pada konten yang dihasilkan AI atau metode verifikasi identitas yang lebih baik untuk melawan deepfake. Sementara itu, pendekatan nol kepercayaan (jangan percaya, selalu verifikasi) akan krusial di tingkat individu.
Tetap aman di era agen AI: Banyak dari tips yang sudah diberikan tetap menjadi perlindungan terbaik Anda – skeptisisme, verifikasi independen, tidak berbagi data yang agen bisa tambang, dll. Saat agen AI muncul, Anda harus meningkatkan kecurigaan untuk setiap interaksi yang terasa sedikit “aneh” atau terlalu formulaik. Misalnya, AI mungkin menangani sebagian besar percakapan penipuan tetapi gagal dalam pertanyaan yang tidak terduga – jika seseorang mengabaikan pertanyaan pribadi dan terus mendorong naskah mereka, bersikaplah waspada. Terus gunakan otentikasi multi-faktor (MFA) pada akun Anda; bahkan jika AI berhasil menipu Anda untuk mengungkapkan kata sandi, faktor kedua (dan terutama kunci keamanan fisik) dapat menghentikannya dari masuk. Pantau akun keuangan Anda dengan cermat untuk tindakan tidak sah – AI dapat memulai transaksi, tetapi jika Anda menangkapnya dengan cepat, Anda mungkin dapat membatalkan atau membaliknya. Yang penting, tuntut keaslian dalam komunikasi penting: jika “bank Anda” mengirim email atau menelepon, katakan pada mereka bahwa Anda akan menelepon kembali di nomor resmi.Terjemahan:
Konten: lembaga yang asli akan menolak itu. Sebagai konsumen, kita mungkin juga melihat alat baru muncul (mungkin berbasis AI) untuk kita memverifikasi konten – misalnya, plugin peramban yang dapat menandai teks yang dicurigai dibuat oleh AI atau video deepfake. Tetap memperoleh informasi tentang teknologi pelindung semacam itu dan menggunakannya akan membantu meratakan medan permainan.
Pada akhirnya, dalam perlombaan senjata AI ini, kewaspadaan manusia sangat penting. Dengan mengakui bahwa orang di ujung yang lain mungkin bukan orang sama sekali, Anda dapat menyesuaikan tingkat kepercayaan Anda. Kita memasuki masa ketika Anda benar-benar tidak bisa menerima interaksi digital begitu saja. Meski itu mengkhawatirkan, menyadarinya adalah separuh dari perjuangan. Penipuan mungkin otomatis, tetapi jika Anda otomatisasi skeptisme Anda dalam menanggapi – memperlakukan setiap permintaan yang tidak diminta sebagai berniat jahat hingga terbukti sebaliknya – Anda memaksa bahkan penipu AI yang paling cerdas sekalipun untuk melewati batas yang sangat tinggi untuk menipu Anda.
9. Bagaimana Otoritas dan Industri Melawan
Ini bukan semua tentang kesuraman dan keburukan – teknologi AI yang sama yang memberdayakan penipu dapat dimanfaatkan untuk mendeteksi dan mencegah penipuan, dan ada upaya besar yang sedang dilakukan untuk melakukan hal itu. Perusahaan analitik blockchain, perusahaan keamanan siber, dan penegak hukum semakin menggunakan AI dan pembelajaran mesin untuk melawan gelombang penipuan crypto yang didukung AI. Ini adalah dinamika kucing dan tikus klasik. Berikut adalah bagaimana orang-orang baik merespons:
-
Deteksi penipuan yang dipimpin AI: Perusahaan seperti Chainalysis dan TRM Labs telah mengintegrasikan AI ke dalam platform pemantauan mereka untuk mendeteksi pola yang menunjukkan penipuan. Misalnya, model pembelajaran mesin menganalisis teks dari jutaan pesan untuk menangkap petunjuk linguistik tentang pembangkitan AI atau rekayasa sosial. Mereka juga melacak perilaku di blockchain – satu laporan mencatat bahwa sekitar 60% deposito ke dompet penipuan sekarang terkait dengan penggunaan AI. Dengan mengidentifikasi dompet yang membayar untuk layanan AI atau menampilkan pola transaksi otomatis, penyelidik dapat menandai operasi penipuan yang kemungkinan sejak dini. Beberapa solusi anti-phishing menggunakan pengenalan gambar AI untuk mengenali situs web palsu (memeriksa ketidakcocokan piksel pada logo atau perbedaan domain yang halus) lebih cepat daripada ulasan manual.
-
Peningkatan otentikasi: Sehubungan dengan komentar Altman bahwa suara dan video tidak dapat dipercaya, lembaga bergerak menuju otentikasi yang lebih kuat. Biometrik mungkin beralih ke hal-hal seperti sidik jari perangkat atau biometrik perilaku (bagaimana Anda mengetik atau menggeser) yang lebih sulit untuk ditiru secara massal oleh AI. Regulator mendorong bank dan bursa untuk menerapkan verifikasi multi-faktor dan out-of-band untuk transfer besar – misalnya, jika Anda meminta penarikan crypto besar, mungkin panggilan video langsung di mana Anda harus melakukan tindakan acak, membuat lebih sulit bagi deepfake untuk merespon dengan benar. The Fed dan lembaga lainnya sedang membahas standar untuk mendeteksi upaya peniruan AI, didorong oleh kasus seperti penipuan CFO deepfake senilai $25M.
-
Kampanye kesadaran: Otoritas tahu bahwa pendidikan publik sangat penting. FBI, Europol, dan lainnya telah merilis peringatan dan mengadakan webinar untuk memberi tahu orang-orang tentang taktik penipuan AI. Ini termasuk saran praktis (banyak yang telah kita gaungkan dalam artikel ini) seperti cara mendeteksi artefak deepfake atau teks AI yang mencurigakan. Semakin banyak orang tahu apa yang harus dicari, semakin tidak efektif penipuannya. Beberapa yurisdiksi bahkan mempertimbangkan label peringatan wajib – misalnya, mewajibkan iklan politik untuk mengungkapkan konten yang dibuat AI; kebijakan semacam itu dapat meluas ke promosi keuangan juga.
-
Tindakan hukum dan kebijakan: Meskipun teknologi bergerak cepat, ada pembicaraan tentang memperketat undang-undang tentang penyalahgunaan deepfake. Beberapa negara bagian AS memiliki undang-undang terhadap deepfake yang digunakan dalam pemilihan atau yang menyamar sebagai seseorang dalam kejahatan, yang dapat diterapkan pada kasus penipuan. Regulator juga sedang memeriksa tanggung jawab penyedia alat AI – jika produk seperti WormGPT jelas dibuat untuk kejahatan, bisakah mereka menargetkan pembuat atau penggunanya? Secara paralel, perusahaan AI arus utama sedang bekerja pada pemberian watermark pada output yang dihasilkan AI atau menyediakan cara untuk memverifikasi keaslian (OpenAI, misalnya, telah meneliti watermarking kriptografis dari teks GPT). Ini dapat membantu membedakan yang nyata dari AI jika diadopsi secara luas.
-
Kolaborasi dan berbagi intelijen: Satu sisi positif adalah ancaman penipuan AI telah memotivasi kerja sama. Pertukaran crypto, bank, platform teknologi, dan penegak hukum telah berbagi data tentang alamat penipu, taktik deepfake yang dikenal, dan tren phishing. Misalnya, jika pertukaran melihat akun yang kemungkinan dibuka dengan kredensial palsu, mereka mungkin memperingatkan orang lain atau penegak hukum, mencegah identitas yang sama digunakan kembali di tempat lain. Setelah insiden besar, kelompok industri melakukan post-mortem untuk mempelajari bagaimana AI dimanfaatkan dan menyebarluaskan strategi mitigasi.
-
Dukungan korban dan intervensi: Menyadari bahwa banyak korban terlalu malu untuk melapor (ingat hanya ~15% melaporkan kerugian), beberapa lembaga menjadi proaktif. Operasi Level Up FBI pada tahun 2024 benar-benar mengidentifikasi ribuan korban pig butchering yang kemungkinan sebelum mereka menyadari mereka ditipu, dengan menganalisis aliran keuangan, dan berhasil mencegah kerugian tambahan sebesar $285 juta dengan memperingatkan mereka tepat waktu. Dengan kata lain, deteksi yang lebih baik memungkinkan intervensi secara waktu nyata. Lebih banyak inisiatif semacam itu, mungkin dibantu oleh AI, dapat menyelamatkan korban potensial dengan mendeteksi pola penipuan lebih awal dalam siklus (misalnya, transaksi berulang yang tidak biasa ke platform palsu).
Pada akhirnya, mengalahkan penipuan yang dibantu AI akan memerlukan "butuh sebuah desa": pertahanan teknologi, pengguna yang terinformasi, regulasi yang diperbarui, dan kerja sama penegakan hukum lintas batas. Meskipun penipu telah terbukti mahir dalam mengintegrasikan AI ke dalam alur kerja mereka, langkah-langkah penanggulangan berjalan seiring. Ini adalah pertempuran yang berkelanjutan, tetapi bukan pertempuran yang hilang. Dengan tetap memantau ancaman dan solusi yang muncul, komunitas kripto dapat beradaptasi. Pikirkanlah dengan cara ini – ya, penipu memiliki alat kuat baru, tetapi kita juga punya. AI dapat membantu menyaring sejumlah besar data untuk menemukan jarum dalam tumpukan jerami (seperti mengelompokkan jaringan dompet penipuan atau mendeteksi konten deepfake). Ini juga dapat membantu mendidik, melalui simulasi pelatihan berbasis AI yang mengajarkan orang bagaimana merespons upaya penipuan.
10. Melindungi Diri Anda: Poin-Poin Penting untuk Tetap Aman
Setelah menjelajahi berbagai cara AI disalahgunakan untuk mencuri crypto, mari kita uraikan beberapa tips perlindungan praktis. Ini adalah kebiasaan dan tindakan pencegahan yang dapat membuat Anda menjadi target yang sulit, bahkan ketika penipuan berkembang:
-
Bersikap skeptis terhadap kontak yang tidak diminta: Apakah itu panggilan video yang tidak terduga dari seorang "teman", DM menawarkan bantuan, atau email tentang peluang investasi, asumsikan bisa jadi penipuan. Sedih memang kita harus berpikir seperti ini, tapi ini adalah garis pertahanan pertama. Perlakukan setiap kontak baru atau permintaan mendesak sebagai potensi penipuan sampai diverifikasi melalui saluran sekunder.
-
Verifikasi identitas melalui berbagai saluran: Jika Anda mendapatkan komunikasi yang diduga dari orang atau perusahaan yang dikenal, konfirmasikan dengan metode lain. Hubungi orang tersebut di nomor yang diketahui, atau email alamat dukungan resmi dari situs web perusahaan. Jangan bergantung pada informasi kontak yang disediakan dalam pesan mencurigakan – cari sendiri secara independen.
-
Melambat dan meneliti konten: Penipu (manusia atau AI) mengandalkan menangkap Anda lengah. Luangkan waktu sejenak untuk menganalisis pesan dan media. Periksa tanda-tanda halus dari deepfake (artefak visual yang aneh, masalah sinkronisasi bibir) dan phishing (domain yang salah eja, permintaan kredensial yang tidak biasa). Jika ada sesuatu yang terasa sedikit "tidak benar" tentang konteks atau kata dari pesan yang seharusnya dari siapa, percayalah pada insting Anda dan selidiki lebih lanjut.
-
Gunakan langkah keamanan yang kuat: Aktifkan autentikasi dua faktor (2FA) pada semua akun dan email crypto. Prioritaskan 2FA berbasis aplikasi atau perangkat keras daripada SMS jika memungkinkan (serangan SIM-swap adalah risiko lain). Pertimbangkan menggunakan dompet perangkat keras untuk penyimpanan besar – meskipun penipu berhasil menipu Anda, mereka tidak dapat memindahkan dana tanpa perangkat fisik. Pastikan perangkat Anda aman dengan perangkat lunak yang diperbarui dan antivirus, untuk menjaga terhadap malware apa pun yang berhasil lolos.
-
Jaga informasi pribadi tetap pribadi: Semakin sedikit yang dapat dipelajari penipu tentang Anda di internet, semakin sedikit materi yang dimiliki AI mereka untuk bekerja. Jangan bagikan detail sensitif di forum publik (seperti email, telepon, info keuangan). Berhati-hatilah dengan apa yang Anda posting di media sosial – pembaruan pribadi yang menyenangkan atau klip suara dapat diambil untuk menargetkan Anda dengan AI (misalnya, melatih klon suara). Selain itu, periksa pengaturan privasi untuk membatasi siapa yang dapat mengirim pesan atau melihat konten Anda.
-
Didik diri sendiri dan orang lain: Tetap terinformasi tentang tren penipuan terbaru. Bacalah tentang teknik deepfake atau strategi phishing baru sehingga Anda akan mengenalinya. Bagikan pengetahuan ini dengan teman dan keluarga, terutama mereka yang kurang melek teknologi, yang mungkin lebih berisiko. Misalnya, jelaskan kepada kerabat yang lebih tua bahwa AI sekarang dapat memalsukan suara, jadi mereka harus selalu memverifikasi panggilan darurat. Berdayakan semua orang di sekitar Anda untuk lebih waspada.
-
Gunakan sumber tepercaya dan aplikasi resmi: Saat mengelola crypto, tetap gunakan aplikasi dan situs web resmi. Jangan mengikuti tautan yang dikirim kepada Anda – ketik URL pertukaran atau dompet secara manual. Jika Anda menjelajahi proyek atau bot baru, teliti kredibilitasnya secara menyeluruh (cari ulasan, berita, latar belakang tim). Unduh perangkat lunak hanya dari toko resmi atau situs proyek, jangan dari tautan sembarangan atau file yang dikirim kepada Anda.
-
Manfaatkan alat keamanan: Pertimbangkan ekstensi browser atau layanan yang memblokir situs phishing yang dikenal. Beberapa pengelola kata sandi akan memperingatkan Anda jika Anda berada di domain yang tidak dikenal yang tidak cocok dengan situs yang disimpan. Penyedia email semakin menggunakan AI untuk menandai email yang mungkin merupakan penipuan – perhatikan peringatan tersebut. Ada juga alat deteksi deepfake yang sedang muncul (untuk gambar/video); meskipun tidak sempurna, alat tersebut dapat memberi lapisan jaminan lain jika Anda menjalankan video mencurigakan melalui alat tersebut.
-
Percaya, tetapi verifikasi – atau lebih baik lagi, tanpa kepercayaan: Dalam crypto, dosis paranoia yang sehat dapat menyelamatkan aset Anda. Jika muncul skenario di mana Anda harus mempercayai seseorang (katakanlah, perdagangan OTC atau...Here is the translated content following the specified format:
Content: Mitra bisnis baru), lakukan uji tuntas secara mendalam dan mungkin bahkan bersikeras untuk mengadakan pertemuan langsung secara tatap muka untuk transaksi besar. Ketika menyangkut uang Anda, tidak apa-apa untuk memverifikasi segalanya dua kali. Seperti kata pepatah, “Jangan percaya, verifikasi” – awalnya tentang transaksi blockchain, ini sekarang juga berlaku untuk komunikasi.
- Laporkan dan cari bantuan jika menjadi sasaran: Jika Anda mengalami upaya penipuan, laporkan ke platform (mereka memang mengambil tindakan untuk menghapus akun jahat) dan ke situs seperti Chainabuse atau situs pemerintah penipuan. Ini membantu masyarakat dan dapat membantu penyelidikan. Dan jika sayangnya Anda menjadi korban, hubungi otoritas segera – meskipun pemulihan sulit, pelaporan awal meningkatkan peluang. Selain itu, kasus Anda dapat memberikan informasi berharga untuk menghentikan orang lain dari penipuan.
Sebagai kesimpulan, peningkatan penipuan crypto berbasis AI adalah tantangan serius, tetapi bukan yang tidak dapat diatasi. Dengan mengetahui buku pedoman musuh – deepfakes, klon suara, chatbot AI, investasi AI palsu, dan lainnya – Anda dapat mengantisipasi langkah mereka dan menghindari jebakan. Teknologi akan terus berkembang di kedua belah pihak. Hari ini mungkin video deepfake dan email yang ditulis GPT; besok mungkin ada tipu daya yang lebih canggih. Namun, pada intinya, sebagian besar penipuan masih mendesak Anda untuk melakukan sesuatu yang bertentangan dengan kepentingan terbaik Anda – kirim uang, ungkapkan rahasia, lewati perlindungan. Itu adalah isyarat Anda untuk berhenti sejenak dan menerapkan pengetahuan yang telah Anda peroleh. Tetap waspada, tetap terinformasi, dan Anda dapat mengakali bahkan penipuan berbasis mesin paling cerdas sekalipun. Pertahanan terkuat Anda pada akhirnya adalah pemikiran kritis Anda sendiri. Di dunia palsu buatan, skeptisisme nyata adalah emas.