Cüzdan

2025'in En İyi 10 Yapay Zeka Destekli Kripto Dolandırıcılığı ve Fonlarınızı Koruma Yöntemleri

2025'in En İyi 10 Yapay Zeka Destekli Kripto Dolandırıcılığı ve  Fonlarınızı Koruma Yöntemleri

Düzenli kripto yatırımcıları, gelişmiş yapay zeka ile donatılmış dolandırıcıların oluşturduğu yeni bir tehdit ile karşı karşıya. Yapay zeka destekli kripto dolandırıcılığı son bir yılda patladı – 2024 ortası ile 2025 ortası arasında yapay zeka destekli dolandırıcılık raporları %456 arttı.

Dolandırıcılar şimdi yapay zekayı kullanarak yaşayan gerçekçi sahte videolar, sesler ve mesajlar oluşturuyor, bu da kripto dolandırıcılıklarını daha ikna edici ve tespit edilmesi daha zor hale getiriyor. FBI'a göre, 2024'te yaklaşık 150.000 kripto ile ilgili dolandırıcılık şikayeti yapıldı ve sadece ABD'de 3,9 milyar dolardan fazla kayıp rapor edildi. Küresel olarak, kripto dolandırıcılık kayıpları 2024'te 10,7 milyar doları aştı – ve bu sadece buzdağının görünen kısmı olabilir, çünkü sadece mağdurların tahminen %15'inin suçları bildirdiği düşünülüyor.

OpenAI CEO'su Sam Altman bile uyardı ki AI’nın insanları taklit edebilme yeteneği "çoğu kimlik doğrulama yöntemini tamamen alt etti" ve "önemli bir dolandırıcılık krizine" yol açabileceği öngörüsünde bulundu. Bu makalede, sektörü rahatsız eden başlıca 10 yapay zeka destekli kripto dolandırıcılığını inceleyeceğiz, gerçek örneklerle nasıl çalıştıklarını anlatacağız ve en önemlisi, kendinizi nasıl koruyabileceğinizi ele alacağız.

be87d68f-600e-4f3f-817f-24e725a46810.png

Çizelge: AI araçlarını içeren kripto dolandırıcılık işlemlerinin payı 2021'den bu yana arttı ve 2025'te tüm dolandırıcılık depo adreslerinin yaklaşık %60'ı yapay zeka destekli planlarla ilişkilendirildi. Bu, kötü niyetli kişilerin dolandırıcılığı artırmak için yapay zekayı ne kadar hızlı benimsediğini yansıtıyor.

1. Derin Sahte Ünlü Onay Dolandırıcılığı (Sahte Videolar ve Yayınlar)

En yaygın yapay zeka destekli kripto dolandırıcılıklarından biri, ünlü kişilerin dolandırıcılık planlarını tanıtması ile ilgili derin sahtekarlıkları içerir. Dolandırıcılar, ünlü teknoloji ve kripto kişiliklerini dijital olarak taklit eder – Elon Musk favorilerden biri – sahte hediyeler veya yatırım platformları tanıtan videolarda. Örneğin, suçlular popüler YouTube kanallarını ele geçirir ve Elon Musk'ın (veya Ripple’ın Brad Garlinghouse veya MicroStrategy’nin Michael Saylor gibi diğer kripto etkileyicilerinin) çifte Bitcoin veya başka gerçek dışı geri dönüşler vaat ettiği videoları canlı olarak yayınlar. Gerçekte, video ve ses yapay zeka tarafından manipüle edilmiştir; gerçek insanlar bu iddiaları hiç yapmamıştır. Kripto para göndererek ödül kazanmayı uman izleyiciler, sadece soyuluyorlar.

Bu, ünlülerin gerçek röportaj kliplerini kullanan önceki kripto hediye dolandırıcılıklarının bir evrimidir. Şimdi, derin sahte teknolojisi ile dolandırıcılar yeni ses/video içerikleri ekleyerek ünlünün doğrudan dolandırıcılık sitelerini destekliyormuş gibi görünmesini sağlıyor. Bu sahte canlı yayınlar, ilk bakışta son derece ikna edici olabilir. Chainabuse (bir kamu dolandırıcılık raporlama sitesi), 2024 ortalarında derin sahte Elon Musk yayını sonucunda birkaç kurbanın dakikalar içinde kandırıldığına dair raporlar aldı ve dolandırıcılar buna bağlı olarak önemli fonlar sağladılar. Blockchain analizleri daha sonra dolandırıcılık adreslerinin Mart 2024 ile Ocak 2025 arasında mağdurlardan en az 5 milyon dolar aldığını ve başka bir yapay zeka ticaret platformunu öne süren derin sahte Musk planının 3,3 milyon doların üzerinde gelir sağladığını ortaya koydu. Siber güvenlik firması Sensity'nin bir çalışması, Musk'ın yatırım dolandırıcılıklarında en yaygın sahtecilik yapılan ünlü olduğunu buldu, muhtemelen çünkü imajı güvenilirlik sağlıyor ve sık sık kripto hakkında konuşuyor. Dolandırıcılar bu güveni istismar ediyorlar.

Durumu daha da kötüleştiren şey, canlı derin sahtekarlık teknolojisinin artık gerçek zamanlı video görüşmeleri sahte bir yüzle mümkün kılması. Bu, dolandırıcının kelimenin tam anlamıyla başka biri olarak görünmesini sağlayabileceği anlamına gelir. Çarpıcı bir vakada, suçlular bir kuruluşun CFO'su ve iş arkadaşları olarak bir video görüşmesinde yapay zeka yüz değiştirme kullanarak bir çalışanı dolandırıcılara 25 milyon dolar aktarması için kandırdı. Derin sahte yöneticiler gerçek gibi görünüyordu ve sesleri gerçeğe benziyordu – her organizasyon için kabus senaryosu. OpenAI'nin Sam Altman'ının ifade ettiği gibi, "Ses veya video derin sahtecikleri gerçeğinden ayırt edilemez hale geliyor". Ortalama bir kripto yatırımcısı için, ünlü bir CEO veya proje kurucusu gibi güvenilir bir figürün derin sahte videosu oldukça ikna edici olabilir.

Bu dolandırıcılıkları nasıl fark edip kaçınmak gerektiği: Bir ünlü bile içeriyorsa, "gerçek olamayacak kadar iyi" kripto promosyonlarına aşırı derecede şüpheyle yaklaşın. Videoyu yakından inceleyin – derin sahtecilikler doğal olmayan göz kırpma, garip ağız hareketleri veya yüz çevresinde uyumsuz aydınlatma gibi ince bozulmalar gösterebilir. Doğal olmayan ses kadansını veya ses bozulmalarını dinleyin. Tanınmış bir kişi aniden garantili karlar veya hediyeler vaat ediyorsa (özellikle bir canlı yayında kripto göndermeniz gerektiğini söylüyorsa), bu neredeyse kesinlikle bir dolandırıcılıktır. Resmi kaynakları kontrol edin; örneğin, Elon Musk tekrar tekrar kripto hediyeleri yapmadığını belirtmektedir. Bir videodan rastgele adreslere para göndermeyin. Şüphe duyduğunuzda, durun – dolandırıcılar heyecan ve aciliyet üzerine oynar. Resmi kanallar veya haber kaynaklarından promosyonun gerçek olup olmadığını (gerçek olmayacaktır) doğrulayarak dolandırıcılık onayı tuzaklarına düşmekten kaçınabilirsiniz.

2. Derin Sahte Sesler ve Videolarla Taklit Dolandırıcılıkları (Yöneticiler veya Sevilenler)

Yapay zeka derin sahteleri yalnızca ünlü milyarderlerle sınırlı değil – dolandırıcılar aynı zamanda tanıdığınız veya güvendiğiniz otorite figürlerini taklit etmek için de kullanılıyor. Bu planda, suçlular AI tarafından oluşturulan ses klonlarını ve video avatarlarını daha kişisel bağlamlarda kurbanları aldatmak için kullanıyor. Tuhaf bir varyant, "sevilen birinden acil yardım çağrısı" dolandırıcılığıdır: Kurban bir telefon alıyor ve örneğin, torununun veya eşinin sesini duyar, acil bir sorun olduğunu iddia eder ve para -genellikle kriptoda veya banka havalesi ile- ister. Gerçekte, gerçek aile üyesi hiç aramamıştır – dolandırıcı, belki bir sosyal medya videosundan sesini örneklemiş ve ardından konuşmasını ve tonunu yapay zeka ile başka bir sahtekarlık olarak klonlamış, ardından sıkıntıda olan kurbana telefon açmıştır. Bu tür ses klonlama dolandırıcılıkları dünya çapında insanları zaten kandırdı ve insan duygularını hedef alıyor. Kısa bir ses klibi bile bugün AI araçlarıyla ikna edici bir klon oluşturmak için yeterlidir.

Başka bir varyant ise sahte yöneticiler ya da ortaklar aracılığıyla işletmeleri ve yatırımcıları hedefliyor. Daha önce, dolandırıcılar 2024 başlarında küresel firma Arup'ın CFO'sunu bir video görüşmesinde taklit etmişti, ancak bu tek vaka değil. Hong Kong'da, bir banka AI tarafından oluşturulan lider sesi gibi gelen talimatlara itaat ettikten sonra dolandırıldı. Ayrıca dolandırıcıların girişim kurucularının ve kripto borsa yetkililerinin kimliklerini derin sahtecilik yaparak yatırımcılara veya müşterilere video sohbet yoluyla yanlış transferleri yetkilendirmek için başvurduğunu gördük. Bu "CEO dolandırıcılığı" derin sahteleri, birçok iş etkileşiminin çevrimiçi taşınmış olmasını sömürmektedir. Zoom görüşmesinde patronunuzun yüzünü ve sesini tanıyorsanız, onlara güvenme eğiliminiz olur. Canlı yüz değiştirme yazılımı, hedefin yüzünü dolandırıcının üzerine gerçek zamanlı olarak yerleştirebilir, bu da aslında kişinin konuştuğunu göstermek için yeterlidir. Ardından kurban para göndermesi ya da güvenlik kodlarını paylaşması istenir. Bazı şirketler ancak para ortadan kaybolduktan sonra kandırıldıklarını fark ettiler.

Dolandırıcılar, uzun soluklu yatırım dolandırıcılıkları olan domuz butcular (bölüm 3'te bahsedilen pig butchering) sahneleri için taktikleri birleştiriyor: Çete, sahte kişiliklerinin gerçek olduğunu "kanıtlamak" için kısa video görüşmeleri yapmaktan başladı. Ya bir aktörle ya da çekici bir kişinin derin sahte bir modeliyle kurbanla video sohbetine katılarak güven kazanıyor ve ardından dolandırıcılığı konuşma üzerinden sürdürüyor. TRM Labs araştırmacıları, dolandırıcılık çetelerinin canlı video sahtekarlığı yapmak için derin sahtecilik hizmeti kiralaması ve canlı video taklidi yapması gibi örnekler gözlemledi – bu, isteğe bağlı derin sahtecilik için büyüyen bir suç pazarı olduğunu gösteriyor. Bir vakada, dolandırıcılık ağı kripto kazançlarının bir kısmını yapay zeka hizmetine harcadı ve kurbanlardan 60 milyon dolardan fazla topladı; bu da derin sahtekarlık teknolojisine yapılan yatırımın oldukça karlı olduğunu gösteriyor.

Kendinizi nasıl koruyabilirsiniz: Anahtar, ikincil kanallar üzerinden doğrulama yapmaktır. Beklenmedik bir telefon ya da video sohbetinde para ya da hassas bilgi isteniyorsa, kim olduğu görünse de seslisi fark etmez, hemen yanıt vermemelisiniz. Bağlantıyı kesip ve tanıdığınız numaradan geri arayın veya başka bir kişiyle doğrulayın. Örneğin, "patronunuz" sizden bir ödeme hakkında mesaj gönderirse, doğrudan patronunuzla çağrı yaparak veya bir iş arkadaşıyla doğrulayarak emin olun. Ailelerin acil durumlar için kodlar oluşturması iyi bir önlemdir – eğer arayan kişi akrabanız olduğunu iddia ediyorsa ve önceden belirlenmiş kodu bilmiyorsa, bunun bir dolandırıcılık olduğunu anlayabilirsiniz. Yüzü hafifçe yanlış görünen (çok pürüzsüz, garip göz veya saç detayları) veya sesin biraz gecikmeli veya robotik olduğu herhangi bir video görüşmesine dikkatli olun. Video veya e-posta yoluyla gelen mali talimatlar her zaman güvenilir bir hat üzerinden yüz yüze veya sesli olarak doğrulanmalıdır. Sam Altman'ın ifade ettiği gibi, geleneksel kimlik doğrulama (ses tanıma gibi) artık güvenilir değildir. Kime güveniyorsanız güvenin gelen ani bir istek üzerine kripto veya transfer yapmaktan kaçının. Kimliği bağımsız olarak doğrulamak için birkaç dakika ayırmak, sizi (veya şirketinizi) maliyetli bir derin sahte dolandırıcılıktan kurtarabilir.

3. Yapay Zeka Destekli Romantizm ve Yatırım Dolandırıcılıkları ("Domuz Kasapçılığı" Dolandırıcılıkları)

Domuz kasapçılığı dolandırıcılıkları olarak bilinen – dolandırıcıların kurbanla çevrimiçi bir ilişki kurup, ardından birikimlerini boşalttığı uzun süreli planlar – yapay zeka sayesinde çok daha tehlikeli hale geldi. Tipik bir domuz kasapçılığı senaryosunda (genellikle sosyal medya veya tanışma uygulamaları aracılığıyla geliştirilen bir romantizm veya dostluk), dolandırıcılar haftalar ya da aylar boyuca kurbanın güvenini kazanır. Sonrasında "harika" bir kripto yatırım fırsatını tanıtır ve kurbanı parayı yatırmaya ikna ederler; ancak tüm şema sahte çıkacaktır. Bu dolandırıcılıklar dolandırıcılar için iş yoğunluğu gerektirir, çünkü günlük sohbet etmeleri ve bir sevgili ya da akıl hocası rolünü inandırıcı bir şekilde oynamaları gerekir. Şimdi, yapay zeka sohbet botları ve derin sahteleri bu süreci süperleştiriyor, domuz kasapçılığını tek seferlik bir aldatmaca yerine ölçülebilir, küresel bir dolandırıcılık operasyonu haline getiriyor.

Dolandırıcılık sendikaları AI dil modellerini (LLM'ler) kurbanlarla iletişimin büyük bir kısmını yönetmek için kullanıyor. ChatGPT gibi araçları kullanarak – Skip translation for markdown links.

İçerik: veya “WormGPT” ve “FraudGPT” gibi sansürsüz gayri meşru varyantlar – her dilde, 24/7 akıcı ve çekici mesajlar üretebilir. Bu, bir dolandırıcının aynı anda düzinelerce kurbanı yönetebileceği anlamına gelir, AI bireyselleştirilmiş sevgi dolu metinler, piyasa analizi veya senaryonun gerektirdiği her şeyi hazırlar. Aslında, Sophos tarafından yapılan 2023 tarihli bir soruşturma, domuz kasapçılığı yapan grupların sohbetlerini yazmak için ChatGPT kullanmaya başladığını ortaya çıkardı; bir kurban bile yapay zeka tarafından oluşturulduğunu kazara ortaya çıkaran bir mesaj almıştır. Hata bir yana, Büyük Dil Modelleri (LLM'ler) dolandırıcılara “hiper kişiselleştirme” sağlar – ton ve içeriği her kurbanın geçmişine ve duygusal durumuna mükemmel şekilde uyacak şekilde ayarlar. Bozuk İngilizce veya kopyala-yapıştır senaryolarının günleri sona erdi. Yapay zeka ile metinler gerçekçi geliyor ve bu da kurbanları nihai teklife daha duyarlı hale getiriyor.

Yapay zeka ayrıca bu dolandırıcılıkları sınırlayan dil bariyerini de ortadan kaldırıyor. Başlangıçta, birçok “pig butchering” çetesi Güneydoğu Asya'da yerleşmiş ve Çince konuşan kurbanları hedeflemiştir. Batılı kurbanlara genişleme, dolandırıcıların zayıf İngilizce becerileri nedeniyle engellenmiştir – garip dilbilgisi genellikle bir tehlike işaretiydi. Şimdi, LLM tabanlı çeviri ve yazım ile ana dili İngilizce olmayan bir kişi, İngilizce, Almanca, Japonca veya herhangi bir karlı piyasada dolandırıcılık yapabilir. Dolandırıcılar gelen mesajları çeviri ve yanıt oluşturma için bir yapay zekaya besler, böylece konuşmadıkları dillerde bile kozmopolit yatırımcılar veya romantik partnerler olarak poz verebilirler. Bu, hedef havuzunu büyük ölçüde genişletti. Avrupa veya Kuzey Amerika'daki iyi eğitimli profesyoneller, beceriksiz dolandırıcılık mesajlarını reddedebilirdi ama şimdi online olarak arkadaş olmuş “çekici bir girişimci”den cilalı, mükemmel lokalleştirilmiş yazışmalar alabiliyorlar. Sonuç? Sonunda “kesim” için daha fazla kurban hazırlanmış olarak ortaya çıkıyor.

Ve “pig butchering”de derin sahte video aracı kullanımlarını da unutmayın. Çoğu “grooming” metin üzerinden gerçekleşse de, dolandırıcılar bazen şüpheleri gidermek için kısa video aramaları planlar. Burada artan bir şekilde yüz değiştirmeli derin sahte videolar kullanıyorlar – örneğin, bir dolandırıcı kamera karşısında bir kadını işe alabilir ama yapay zeka kullanarak yüzünü profilinde kullandıkları çalınmış fotoğraflarla değiştirebilir. Bu “hayatta olduğunu kanıtlama” stratejisi kurbanı çevrimiçi sevgililerinin gerçek olduğuna inandırır. Güven tesis edildikten sonra, dolandırıcılar kurbanları sahte kripto platformlarına veya “likidite madenciliği” programlarına yatırım yapmaya yönlendirir, genellikle daha büyük mevduatları çekmek için sahte kâr ekran görüntüleri gösterir. Kurbanların dolandırıcılarıyla bir hayatın veya önlerinde büyük getirilerin yanılsaması altında evlerini yeniden finanse ettikleri veya 401(k) planlarını boşalttıkları bilinir. Tam anlamıyla yürek parçalayıcıdır – ve yapay zeka sadece aldatmacayı arttırır.

Çevrimiçi-only ilişkiler veya rastgele başlayan ve olağanüstü derecede yoğun hale gelen mentörlükler konusunda sağlıklı bir şüpheyi sürdürerek “pig butchering” dolandırıcılıklarından nasıl kaçınılır: Hiç şahsen tanışmadığınız biri sizi kriptoya yatırım yapmaya yönlendiriyorsa veya mali yardım talep ediyorsa, bu çarpıcı bir kırmızı bayraktır. Profil fotoğraflarının çalıntı olup olmadığını görmek için tersine görüntü araması yaparak buna bakın (birçok domuz kasapçılığı dolandırıcısı model fotoğraflarını veya diğer kurbanların fotoğraflarını kullanır). Kişinin kamerasının tuhaf derecede düşük kalitede olduğu veya yüzlerini tam olarak göstermedikleri video aramalara karşı dikkatli olun – bir derin sahte anomaliyi gizliyor olabilirler. Hızlı yatırım yapmanız için baskı veya içeriden bilgi iddiaları bir kandırmaca olduklarının işaretleridir. Ayrıca, meşru yatırım profesyonellerinin veya romantik partnerlerin genellikle garanti edilmiş kâr vaat etmeyeceklerini unutmayın. FBI ve diğer ajanslar, domuz kasapçılığı ve kripto aşk dolandırıcılığı yatırımları hakkında resmi uyarılar yayınladılar – bu dolandırıcılıkların nasıl çalıştığını öğrenin ve başkalarını da bilgilendirin. Birinin dolandırıcı olabileceğinden şüpheleniyorsanız, iletişimi kesin ve asla paraları veya kriptoyu onlara göndermeyin. Ve hedef alındıysanız, yetkililerin bu çeteleri takip etmelerine yardımcı olmak için durumu (gerekirse anonim olarak) bildirin. Farkındalık en iyi savunmadır, bu yüzden AI-tarafından yazılan tatlı konuşmaya ne kadar çekici olsa da, tuzağa düşmeyin.

4. AI İçerikli Phishing E-postaları ve Mesajlar (Daha Akıllı, Ölçeklenebilir Dolandırıcılıklar)

Phishing – sizi kötü amaçlı bir bağlantıya tıklamaya veya özel bilgilerinizi ifşa etmeye kandıran sahte e-postalar veya mesajlar – uzun süredir bir sayı oyunuydu. Dolandırıcılar binlerce genel mesajı (“Hesabınız tehlikede, buradan giriş yapın...”) patlatır ve birkaç kişinin yemi yutması umulur. Şimdi, yapay zeka phishing’i çok daha ikna edici ve daha hedefli hale getiriyor. Yaratıcı dil modelleri gibi araçlarla, saldırganlar kolayca kişiselleştirilmiş, akıcı mesajlar oluşturabilir ve orijinal iletişimlerin stilini taklit edebilirler, başarı oranlarını dramatik şekilde artırır.

Büyük Dil Modelleri (LLM'ler), bankanızdan, kripto borsanızdan veya bir arkadaşınızdan gelen gerçek bir e-postadan neredeyse ayırt edilemeyecek phishing yemleri oluşturabilir. Dilbilgisi hatalarını ve genellikle eski dolandırıcılıkları ele veren tuhaf cümle kurulumlarını ortadan kaldırırlar. Örneğin, bir yapay zekaya “[Your Crypto Exchange] Güvenliği” imzalı, para çekme işlemi konusunda uyarı yapan ve hesabınızı “güvence altına almanız” için bir bağlantı veren acil bir e-posta yazması talimatı verilebilir. Metin cilalanmış ve marka uyumludur. Dolandırıcılar ayrıca sosyal medya hesaplarınızı tarayarak tam olarak uygun şekilde mesajlar oluşturur – yakın tarihli bir işlem veya bir arkadaşın adını referans gösterir – bu tekniğe “oltalama” denir. Bu düzeyde bir özelleştirme önemli çaba gerektiriyordu, ancak bir yapay zeka ajanı kamu verilerini tarayarak bunu saniyeler içinde yapabilir.

Yasadışı faaliyete yönelik filtreleri olan ChatGPT gibi kamu modelleri olduğu için, suçlular “WormGPT” ve “FraudGPT” gibi karaborsa LLM'lerini geliştirdiler veya satın aldılar. Bu zararlı yapay zekalar, dark web forumlarında mevcut olup, ikna edici phishing e-postaları, kötü amaçlı kodlar ve hatta adım adım dolandırıcılık önerileri üretebilir. Basit bir komutla, sınırlı İngilizce yeteneği olan bir dolandırıcı herhangi bir dilde neredeyse kusursuz bir e-posta oluşturabilir veya bir phishing web sitesinin tüm metin içeriğini üretebilir. Siber güvenlik eğitim firması KnowBe4'ye göre, 2024’e kadar analiz ettikleri phishing e-postalarının neredeyse %74'ü yapay zeka kullanımı belirtileri gösteriyor – diğer bir deyişle, phishing girişimlerinin çoğunluğu artık yapay zekanın yazma yetenekleri tarafından hızlandırılmaktadır.

Yazamın ötesinde, yapay zeka sohbet botları mesajlaşma platformlarında bir tehdit oluşturuyor. Dolandırıcılar Telegram, Discord, WhatsApp vb. gibi platformlarda kullanıcılarla gerçek zamanlı görüşme yapan botları dağıtabilirler, tıpkı bir insan gibi kullanıcıları kandırırlar. Örneğin, kripto cüzdanınızla ilgili bir sorun yaşadığınız hakkında bir tweet atmanız ve size “destek temsilcisi” (aslında bir bot) olarak yanıt verilmesi olasıdır. Yardımcı olduğunu iddia eden yapay zeka, ardından sizi dolandırmak amacıyla sahte bir “doğrulama” işlemi üzerinden yönlendirir. Sohbet botu, sorularınızı doğal bir şekilde anlayabilir ve yanıtlayabilir, bu nedenle onun sahte olduğunu anlamanız daha az olasıdır. Belediye bir durumda, dolandırıcılar bir dolandırıcılık “yatırım asistanı” sohbet botu kurmuş ve kullanıcılara kripto ticareti konusunda yardımcı olmayı vaat etmiştir – bu sadece API anahtarlarını ve hesap bilgilerini toplamak için bir tuzaktır.

Phishing saldırıları ve kötü amaçlı yazılımlar giderek daha fazla yapay zeka algoritmaları tarafından destekleniyor, ki bu algoritmalar kullanıcıların parolaları ve kripto fonlarını çalmaya yönelik gerçekçi mesajlar ve hatta kötü amaçlı kod üretebiliyor.

Ayrıca, yapay zeka kötü amaçlı yazılım kodu üreterek ve saldırıları otomatik hâle getirerek hacklemeye yardımcı olabilir. Örneğin, az kodlama bilgisine sahip bir suçlu, sansürsüz bir yapay zekaya kripto cüzdanlarını boşaltacak veya tohum ifadelerini yakalayacak bir keylogger yükleyecek programı yazmasını isteyebilir. Yapay zeka yardımıyla oluşturulmuş temel fidye yazılımı ve bilgi hırsızlarının raporları ortaya çıktı. Bu daha çok hacking'e girse de dolandırıcılıktan ziyade, değerlendirmeler bulanıklaşıyor – genellikle bir phishing e-postası kötü amaçlı yazılımı teslim eder. Yapay zeka yardımıyla, suçlular yeni kötü amaçlı yazılım varyantlarını güvenlik ekiplerinin onları engellemesinden daha hızlı üretebilir. Yapay zeka güvenlik kontrollerini de aşmada yardımcı olabilir: CAPTCHA’ları çözme, onaylamadan geçmek için sahte kimlikler oluşturma (bkz. Bölüm 6), hatta şifreleri akıllıca tahmin ederek kırma (güçlü kriptografik anahtarlar güvende kalmakla birlikte, zayıf olanlar değildir). Sam Altman, selfie kimlik kontrolleri ve "sesli giriş"lerin bile yapay zeka tarafından aldatılmasının çocuk oyuncağı hâline geldiği konusunda uyardı, bu da güvendiğimiz doğrulama yöntemlerinin acilen güncellenmesi gerektiğini gösteriyor.

Yapay zeka güdümlü phisher'lardan korunmak için: Eski tavsiyeler hâlâ geçerli – mesaj ne kadar gerçekçi görünüyorsa görünsün, tanımadığınız gönderenlerden gelen şüpheli bağlantılara asla tıklamayın veya ek dosyaları indirmeyin. Acelecilik hissi yaratan veya giriş bilgilerinizi, iki faktörlü kimlik doğrulama (2FA) kodlarınızı veya tohum ifadelerinizi isteyen iletişimlere (e-posta, SMS, DM) karşı yüksek uyanıklık içinde olun. Format ve dil mükemmel görünse bile, gönderenin e-posta/domain’ini dikkatle kontrol edin – ince hatalar veya uyuşmayan URL’ler (örneğin, “binance.support.com” yerine gerçek alan adı) olabilir. Beklenmedik bir talep aldığınızda doğrudan hizmetle veya kişiyle kontrol edin. Mesajlardaki bağlantılar yerine resmi uygulama/web sitesi kanallarını kullanın. Sosyal platformlarda proaktif olarak ulaşan “destek”e güvenmeyin; meşru şirketler DM vasıtasıyla şifreler istemez. Teknik olarak, e-posta filtreleri ve web itibar araçları gibi phishing korumalarını etkinleştir – ve kötü amaçlı yazılımları yakalamak için antivirüs ve yazılımlarınızı güncel tutun. En önemlisi, kuşkulu bir zihniyet geliştirin. Eğer hızlı hareket etmeniz veya bilgi açıklamanız için zorlanıyorsanız, bu yavaşlayıp doğrulama yapmanız için bir işarettir. İstenmeyen mesajları dikkatle ele alarak, yapay zeka tarafından üretilmiş dolandırıcılıkları bile alt edebilirsiniz. Unutmayın: gerçek bir şirket veya arkadaş kimliğinizi doğrulamak için fazladan bir dakika almanıza itiraz etmez – sadece dolandırıcılar anında harekete geçmenizi ister.

5. Sahte “AI Trading” Botları ve Platformları (Yapay Zeka Hype Yatırım Dolandırıcılığı)

İçerik: kar elde etmek. Bu nedenle, gelişmiş bir algoritma üzerinden garanti getiri vaat eden sahte yapay zeka destekli ticaret botları, sinyal grupları veya DeFi platformları yaratırlar, aslında hepsi bir göz boyamadan ibarettir.

Yaygın bir hile "AI ticaret botu" dolandırıcılığıdır: (genellikle Telegram veya Reddit üzerinden) sizi kriptoyu büyük kazançlar için takas ettiği iddia edilen bir bot kullanmaya davet ederler. Bot, test hesabında birkaç karlı işlem yapan simülasyon sonuçları veya bir demo bile gösterebilir. Ancak, kendi fonlarınızı botun ticaret yapması için yatırdığınızda kaybetmeye başlar veya dolandırıcılar paranızla birlikte ortadan kaybolur. Diğer durumlarda, dolandırıcılar bir "AI yatırım fonu" veya madencilik havuzu tanıtırlar - pazarlama terimleriyle kandırılan kullanıcılar kripto paralarını yatırır - ama bu bir Ponzi düzenidir. Erken "yatırımcılar" biraz para alabilir, ancak sonunda operatörler fonların çoğuyla birlikte kaybolur, geride sorumsuz bir güzel site bırakırlar.

2023-2024 yıllarındaki ChatGPT çılgınlığı sırasında, birçok yeni kripto token ve platform, yapay zekaya dayandığını iddia ederek ortaya çıktı. Bazıları meşru projeler olsa da, çoğu doğrudan dolandırıcılık veya pompalama ve boşaltma planıydı. Dolandırıcılar, yapay zeka geliştirmeye bağlı bir token duyurur, heyecanlı yatırımcılardan para toplar ve ardından projeyi bırakır (klasik bir halı çekme). Yapay zekanın fikri bile bir tokenin değerini çöküş öncesinde artırmak için yeterliydi. Ayrıca sahte haberlerin silah haline getirilmesini de gördük: Elon Musk ve diğerlerinin deepfake videoları, mağdurları yatırımlar yapmaya yönlendirmek için "AI kripto ticaret platformunu" (daha önce bahsedildiği gibi) onaylamak için kullanıldı. Örneğin, bir deepfake video, AI kullanarak ticari kârları garanti ettiğini iddia ederek bir platforma yatırım yapmayı teşvik etti - böyle bir şey yoktu. Bu planlar, ünlü bir kişiye olan güveni ve yapay zeka teknolojisinin gizemini kullanarak kendilerini inandırıcı gösterdiler.

Yalnızca sahtekarlar yapay zekaya sahip oldukları konusunda yalan söylemekle kalmaz, bazıları aslında yanılsamayı daha da artırmak için yapay zeka kullanır. TRM Labs, 2024'te MetaMax adında, sosyal medya içeriğiyle etkileşim kurarak yüksek getiriler vaat eden bir piramit düzeni fark etti. MetaMax'ın web sitesinde bir CEO ve ekip gösteriliyordu – ama "CEO" sadece deepfake teknolojisiyle oluşturulmuş bir AI üretilmiş avatardı. Başka bir deyişle, ortada gerçek bir kişi yoktu, sadece bir AI görüntüsü ve belki bir AI sesi vardı ve yatırımcılara MetaMax'ın bir sonraki büyük şey olduğunu vaat ediyordu. Plan, çökmekte olan 200 milyon dolara yakın para toplamayı başardı (özellikle Filipinler'deki mağdurlardan). Başka bir dolandırıcılık sitesi, babit.cc, gerçek insanların çalınan fotoğraflarını kullanmak yerine, tüm personel başlıklarını AI ile üretecek kadar ileri gitti. O resimlerdeki bazı olağanüstü mükemmellik fark edilebilirken, her geçen ay AI üretilmiş yüzler daha da gerçekçi hale geliyor. Gelecekteki dolandırıcılık sitelerinin gerçekte var olmayan, inandırıcı görünen bir yönetici kadrosuna sahip olması kolayca görülebilir.

AI temalı yatırım dolandırıcılıklarından nasıl kaçınılır: Yapay zekayı ağır biçimde pazarlayan "gerçek olamayacak kadar iyi" yatırım fırsatlarına karşı aşırı dikkat gösterin - özellikle açık detaylarının olmadığı durumlarda. Araştırmanızı yapın: Bir proje yapay zeka kullandığını iddia ediyorsa, arkasında meşru bir belgeleme veya deneyimli bir ekip var mı? Kurucular hakkında doğrulanabilir bilgi bulamıyorsanız (veya yalnızca AI tarafından oluşturulmuş profiller varsa) dikkatli olun. Ünlü onaylarına asla uzaktan güvencesiz bir şekilde güvenmeyin; genelde Musk, CZ veya Vitalik gibi kişiler rastgele ticaret önerisi veya fonları ikiye katlayacak teklifler vermiyorlar. Eğer bir AI ticaret botu bu kadar harikaysa, neden yaratıcıları bunu ucuz bir şekilde satıyor veya Telegram'da pazarlıyor - onu özel olarak kullanıp zengin olmuyorlar mı? Bu mantık kontrolü dolandırıcılığı sıklıkla ortaya çıkarır. Ayrıca, garanti getiriler = kırmızı bayrak unutmayın. Ne kadar sofistike bir algoritma olursa olsun, kripto piyasa risklidir. Meşru firmalar riskleri açıkça belirtir ve sabit yüksek getiriler vaat etmezler. Bir yatırımcı olarak, dolandırıcıların moda terimleri sevdiğini unutmayın – “AI destekli, kuantum, garanti, gizli algoritma” – bunlar saf kişiler için tuzaklardır. Bilinen borsalarda ve platformlarda kalın ve yeni bir projeden ilgi duyarsanız, bağımsız olarak doğruladıktan sonra yalnızca kaybedebileceğiniz miktarı yatırın. Şüphe duyduğunuzda, topluluktaki güvenilir seslerden görüş alın. Çoğunlukla, “XYZ AI bot hakkında bir şey duyan var mı?” diye bir forumda veya Reddit'te yazmak, sahte ise uyarıların ortaya çıkmasını sağlar. Kısacası, yapay zeka atılımlarında FOMO'nun karar verme yetinizi gölgede bırakmasına izin vermeyin – bu dolandırıcılıkların çoğunda “otomatikleştirilen” tek şey paranızın çalınmasıdır.

6. Sentetik Kimlikler ve AI ile KYC Atlatma

Kripto para dolandırıcılıkları genellikle bir dizi sahte kimlik içerir – sadece mağdurları taklit eden kişiler değil, dolandırıcıların kullandığı hesaplar ve varlıklar da. Yapay zeka, dolandırıcılara talep üzerine tüm sentetik kimlikleri oluşturma imkanı tanır, sahtekarları ayıklamak için tasarlanmış doğrulama önlemlerini atlatmalarını sağlar. Bunun iki büyük etkisi var: (1) Dolandırıcılar, takma adlar altında hesap açabilir ve (2) sahte web sitelerine yapay zeka tarafından üretilmiş "ekip üyeleri" veya referanslar ekleyerek bunlara bir meşruiyet havası katabilirler.

Uyum tarafında, birçok kripto platformu KYC (Müşterinizi Tanıyın) kontrolleri gerektirir - ör. kimlik belgesi ve bir selfie yükleyin. Yanıt olarak suçlular, bu kontrolleri geçebilecek sahte kimlikler ve manipüle edilmiş selfieler oluşturmak için yapay zeka araçlarını kullanmaya başladılar. Yaygın bir yöntem, gerçek kimliklerin unsurlarını birleştirmek veya çalınan bir isimle eşleşecek şekilde bir kişinin benzerliğini sentezlemek için yapay zeka görüntü üreticileri veya deepfake teknikleri kullanmaktır. Decrypt 'deki son bir anekdot, sıradan AI kullanarak sahte ehliyet görüntüleri oluşturarak borsaları ve bankaları kandıran kişilerden bahseder. Biyometrik doğrulamalar bile güvenli değil: AI, bir kimlik tutan veya sistemin gerektirdiği hareketleri gerçekleştiren bir kişinin canlı bir videosunu üretebilir. Özünde, bir dolandırıcı bilgisayarının başına geçip bir AI'nin hayali bir kişiyi kullanarak hesap açmasını sağlayabilir. Bu hesaplar daha sonra çalınmış kriptoyu aklamak veya dolandırıcılık platformları kurmak için kullanılır. Araştırmacılar "John Doe" nun milyonlarca doları sahte bir kimlikle geri çektiğini fark ettiğinde, iz zaten soğumuş olur.

Dolandırıcılıkları tanıtırken, sahte "doğrulanmış" kimlikler yardımcı olur. 5. Bölümde AI tarafından üretilmiş CEO'lardan bahsettik – bu daha geniş bir eğilimin parçasıdır. Dolandırıcılar, LinkedIn'e gerçek olmayan çalışanlar ekleyebilir (AI başlık fotoğrafları ve otomatik oluşturulmuş CV'ler kullanarak), GAN tarafından üretilmiş profil resimleriyle sahte kullanıcı yorumları oluşturabilir ve hatta sahte müşteri destek temsilcileri yaratabilir. Bazı kurbanlar, bir değişim destek temsilcisiyle bir sohbet açılır penceresi üzerinden (belki bir kimlik avı sitesinde) sohbet ettiklerini bildirdiler ve temsilci gerçekçi bir avatar ve isme sahipti. Fakat, bu büyük olasılıkla AI ile desteklenmiş hayali bir kişilikten ibaretti. ThisPersonDoesNotExist (rastgele gerçekçi yüzler üreten bir AI aracı), dolandırıcılar için bir nimet haline geldi – her bir dolandırıcılık hesabı veya profili işaretlendiğinde, bir sonraki için benzersiz bir yüz oluştururlar ve spam filtrelerinin ayak uydurmasını zorlaştırır.

Son kullanıcıları hedefleyen dolandırıcılıkların dışında bile, AI destekli kimlik sahteciliği suçları kolaylaştırmaktadır. Organize çeteler, bankalardaki video-KYC prosedürlerini yanıltmak için deepfake kullanarak, para katmanı hesapları veya yanlış kimlik altındaki borsa hesaplarını oluşturmaktadır. Bir durumda, Europol, suçluların hesabı tutanların seslerini taklit ederek bankaların ses tanıma sistemlerini atlatmak için AI kullandığını belirtti. Kolluk kuvvetleri, kripto dolandırıcılığı gelirlerinin bu AI "kimlik kitleri" için ödeme yaptığını görüyor – TRM Labs, sahte veya deepfake araçları satın almak için muhtemelen bir AI hizmet sağlayıcısına giden pig butchering mağdurlarından gelen kriptoyu izledi. Tamamen bir suç ekosistemi: sahte bir kimlik satın alın, dolandırıcılık altyapısını oluşturmak için kullanın, para çalın, daha fazla sahte kimlikle açılan borsalar aracılığıyla aklayın.

Sentetik kimlik dolandırıcılıklarından korunmak için: Bireysel kullanıcılar için bu, doğrudan karşınıza çıkabilecek bir şeyden ziyade, fotoğrafların veya "belgelerin" sahte olabileceğinin farkında olmaktır. Yeni bir kripto platformu veya hizmeti ile uğraşıyorsanız, biraz araştırma yapın: Ekip gerçek ve doğrulanabilir mi? Bir "finansal danışman" ile video görüşmesi yapıyorsanız ve bir şeyler ters gidiyorsa (ör. hafif yüz gariplikleri), olabilecekleri kişi olmadıkları düşünün. Şirketler için, KYC ve dolandırıcılık tespitini güçlendirmek zorunludur - örneğin, yapay zeka kontrol kullanarak bir kimlik fotosunun oluşturulduğunu veya bir selfienin deepfake olduğunu kontrol etmek (bunu algılayabilen algoritmalar vardır). Bir kullanıcı olarak, kendi kimlik verilerinizi korumak için bir ipucu: Dolandırıcılar genellikle deepfake modellerini, çevrimiçi paylaştığınız bilgilere göre eğitirler. Paylaşımınızı sınırlamak (ör. kendinizi halka açık bir şekilde videoya almazsanız ve profillerinizi gizli tutarsanız) kötü aktörlerin erişebileceği ham malzemeyi azaltabilir. Ayrıca, yalnızca kimlik kontrollerine ek olarak, daha fazla güvenlik önlemine izin verin ve ısrar edin – örneğin, bazı bankalar video üzerinde rastgele bir ifadeyi onaylamanızı isteyebilir (deepfake'in spontane olarak yapması daha zor, ama imkansız değil). Altman'ın önerdiği gibi, kimlik doğrulama yolunun evrilmesi gerekir. Çok faktörlü ve sürekli doğrulama (sadece bir anlık görüntüden ibaret olmamak) daha güvenlidir. Şimdilik, bir tüketici olarak, sağlam güvenliğe sahip hizmetleri tercih edin ve sağlam bir neden olmadan kişisel belgelerinizi veya bilgilerinizi talep ederse bir bireyden veya siteden şüphelenin. Bir hesabın veya profilin sahte olduğundan şüpheleniyorsanız (belki yeni bir sosyal profil size kripto yatırımı hakkında ulaşıyor), dikkatli olmak ve iletişimi kesmek daha iyidir. Dolandırıcıların size karşı sahte kimlikleri kullanma fırsatını ne kadar az verirseniz, o kadar iyi.

7. Yapay Zeka Destekli Sosyal Medya Botları ve Taklitçiler

Kripto dolandırıcıları, Twitter ve Facebook'tan Telegram ve Discord'a kadar uzun zamandır sosyal medyada aralıklı olarak faaliyet göstermektedir. Şimdi, yapay zeka, bu dolandırıcılıkları kolaylaştıran botları ve sahte hesapları destekleyerek daha etkili hale getiriyor ve gerçek kullanıcılardan ayırt edilmesi zorlaştırıyor. Eğer kripto hakkında tweet attıysanız ve anında yanıtlandıysanızTeklif edilen “destek” veya kripto ile ilgili çekici insanlardan rastgele arkadaşlık talepleri gördüyseniz, muhtemelen bu sorunla karşılaşmışsınızdır. Yapay Zeka (AI), dolandırıcıların hiç olmadığı kadar inandırıcı bot orduları konuşlandırmasına olanak tanır.

Öncelikle, üretken AI her botun benzersiz bir “kişiliğe” sahip olmasına olanak tanır. 1.000 botun aynı bozuk İngilizce yorumunu yayınlamak yerine, her biri şimdi özgün, tutarlı gönderiler üretebilir ve aynı zamanda belirli bir senaryoya sadık kalabilir, bu da belirgin tekrarların önüne geçer. Hatta sohbet edebilirler. Örneğin, kripto forumlarında veya Telegram gruplarında bir AI botu, piyasalar veya son çıkan NFT'lar hakkında gündelik sohbetler yaparak, toplulukta güven oluşturup karışarak sızabilir. Sonra, birine “büyük bir fırsat” veya bir phishing bağlantısı ile DM attığında, hedef bu hesabın haftalar boyunca grupta “normal” davrandığını gördüğü için daha az şüphelenir. AI ayrıca bu botlar için gerçekçi profil resimleri de üretebilir (GAN'lar veya benzerleri kullanılarak), böylece çalıntı bir fotoğrafı yakalamak için tersine görüntü araması yapamazsınız. Günümüzde birçok sahte Twitter hesabı, önceki AI görüntülerindeki belirgin hataların olmadığını gösteren, çekici, dostça görünen insanlar profilli AI tarafından oluşturulan görüntüler kullanmaktadır. Biyografiler ve gönderiler bile gerçekçi görünmesi için AI tarafından yazılır.

Gerçek hesapların taklit edilmesi, AI'nin yardımcı olduğu bir diğer alandır. Derin sahte video/ses taklidine değindik, ancak yazı tabanlı platformlarda, dolandırıcı tanınmış bir figürün veya destek masasının profilini kopyalayabilir. AI, hızla benzer hesaplar oluşturarak (biraz yanlış yazılmış kullanıcı adları örneğin) ve resmi hesabın tonuna uygun içerik üreterek yardımcı olabilir. Kurbanlar bu sahte destek hesaplarına mesaj attığında, AI sohbet botları etkileşimi yönetebilir, onları aslında bilgi çalmak için “doğrulama” adımlarından geçirebilir. Bu tür bir sohbet temelli phishing, AI ile daha kolay ölçekte uygulanabilir. Bilinen bir dolandırıcılıkta, bir Discord topluluğunda kullanıcılar, AI'nin muhtemelen powered ettiği, cüzdanlarını bağlamada kullanıcıları ikna edici biçimde yönlendiren ve dolandırıcılık işlemlerini çalan bir tuzağa sokan bir yöneticiden yardım teklifi içeren özel mesajlar aldı. Chainalysis, AI sohbet botlarının popüler kripto Discord/Telegram gruplarına sızarak, moderatör gibi davranarak insanları kötü niyetli bağlantılara tıklamaya veya cüzdan anahtarlarını açıklamaya teşvik eden dolandırıcılıkları rapor etti. Botlar, biri onları sorguladığında bile gerçek zamanlı olarak yanıt verebilir, doğal dil kullanarak, bu da genellikle uzun bekleme süresi veya alakasız yanıt gibi belirgin ipuçlarını ortadan kaldırır.

Ölçek şaşırtıcı seviyede – tek bir dolandırıcı (veya küçük bir ekip) yüzlerce AI destekli kişiliği eşzamanlı olarak etkili bir şekilde çalıştırabilir. Sosyal medyada belirli anahtar kelimeleri (örn. “şifreyi unuttum MetaMask”) izleyen ve otomatik olarak önceden hazırlanmış bir dolandırıcılık mesajıyla kullanıcıya yanıt veren veya DM atan AI ajanları kullanabilirler. AI öncesinde, bunu ya manuel olarak yapmaları ya da kolayca tespit edilen basit betikler kullanmaları gerekirdi. Şimdi her şey daha uyarlanabilir. Ayrıca, yapay zekanın sahte etkileşim oluşturmak için kullanıldığını görüyoruz: Bir dolandırıcılık gönderisini veya dolandırıcılık tokenini popüler göstermek için bot hesaplardan gelen binlerce yorum ve beğeni. Örneğin, sahte bir ICO'nun Twitter'da projeyi öven ve sözde karlarını paylaşan düzinelerce “yatırımcı” (hepsi bot) olabilir. Projeyi araştıran biri olumlu muhabbeti görüp bunun gerçek bir taban heyecanı olduğunu düşünebilir.

Sosyal medya bot dolandırıcılıklarıyla nasıl mücadele edilir: İlk olarak bot etkinliğinin işaretlerini tanıyın. Çevrimiçi bir kripto problemi bahsettiğiniz anda anında genel bir yanıt alırsanız, bunun kötü niyetli olduğunu varsayın. Profil resmi hoş görünse bile, istenmeden size ulaşan birinin gönderdiği rastgele bağlantılara asla tıklamayın. Profilleri dikkatlice kontrol edin: Ne zaman oluşturulmuş? Normal gönderi geçmişi var mı yoksa çoğunlukla tanıtım mı yapıyor? Genellikle botların yepyeni hesapları veya garip takipçi/takip oranları vardır. Telegram/Discord'da, bir grubu paylaşmıyorsanız üyelerden mesaj almamanız için gizlilik ayarlarınızı düzenleyin veya en azından aniden mesaj atan birine karşı dikkatli olun. Resmi destek nadiren sizi ilk olarak DM ile arar. Biri bir yöneticiyi taklit ederse, saygın yöneticiler genelde destek işlemlerini DM yoluyla yürütmezler – sizi resmi destek kanallarına yönlendirirler. Bir Twitter hesabı, bir cüzdan veya borsa için destek olduğunu iddia ediyorsa, kullanıcı adınızı şirketin bilinen kullanıcı adıyla karşılaştırın (Dolandırıcılar “O” yerine “0” gibi harf değişikliklerini severler). Platform araçlarını kullanın: Twitter’ın ücretli doğrulaması kusursuz değil, ancak “Binance Destek” olduğuna dair mavi bir tik olmaması artık açık bir işarettir. Discord için, topluluklar bazen bot algılama araçlarına sahiptir – dolandırıcılıklar ve botlarla ilgili yönetici uyarılarına dikkat edin.

Kullanıcılar olarak, internette yardım veya para teklif eden “dost canlısı yabancılar” hakkında sağduyulu bir şüphecilik en iyi savunmalardan biridir. Gerçek insanlar nazik olabilir, ancak kripto sosyal ortamında beklenmedik yardım büyük olasılıkla bir aldatmacadır. Bu yüzden, bir kripto problemine sinirlenirseniz, onu düzeltebileceğini iddia eden ilk kişiye güvenme dürtüsüne karşı koyun. Bunun yerine, yorum yapılan hizmetin resmi web sitesine gidin ve destek sürecini izleyin. Dolandırıcılara o ilk etkileşimi sağlamayarak, tüm AI-bot avantajını geçersiz kılmış olursunuz. Son olarak, bariz bot hesapları rapor edin ve engelleyin – birçok platform, kullanıcı raporlarına dayalı AI algılamalarını geliştirir. Bu devam eden bir silahlanma yarışıdır: AI'ye karşı AI, platformların kötü niyetli botları karşılamak için algılama algoritmaları kullanması. Ancak bunu mükemmelleştirene kadar, tetikte kalmak ve muhtemel botlarla etkileşime girmemek kripto güvenliğinizi sağlamanın uzun bir yolunu katedecektir.

8. Otonom “Ajan” Dolandırıcılıkları – Bir Sonraki Sınır

İleriye dönük olarak, tamamen otomatik dolandırıcılık operasyonlarının en ürkütücü olasılık olduğu gerçeği - minimal insan girdisiyle uçtan uca dolandırıcılık yapan AI ajanları. Bunun erken belirtilerini zaten görüyoruz. AI ajanı, kendi başına kararlar alabilen ve çok aşamalı görevler yürütebilen (genellikle başka AI modelleri veya yazılım araçlarını çağırarak) bir yazılım programıdır. OpenAI’nin yakın zamanda duyurduğu, uygulamalar kullanabilecek, internette insan gibi davranabilecek ChatGPT destekli ajanlar, hem heyecan hem de endişe yarattı. Dolandırıcılar hiç şüphesiz sahtekarlıklarını yeni zirvelere taşımak için bu yeteneklere göz dikiyorlar.

Dolandırıcılık için tasarlanmış bir AI ajanını hayal edin: Sosyal medyada potansiyel hedefleri (örneğin, kripto yatırımı veya teknik destek ihtiyaçları hakkında yayın yapan insanlar) tarayabilir, otomatik olarak iletişim başlatabilir (DM veya e-posta yoluyla), kişi hakkında topladığı tüm bilgilerin rehberliğinde gerçekçi bir sohbet yapabilir ve onları dolandırıcılık sonucuna yönlendirebilir (örneğin, phishing sitesine yönlendirme veya kripto göndermeye ikna etme). Tüm bunlar olurken, taktiklerini anında ayarlayabilir – kurban şüpheli görünüyorsa, AI tonu değiştirebilir veya insan bir dolandırıcı gibi farklı bir hikaye deneyebilir. Yanlız bu AI, aynı anda yüzlerce kurbanla uğraşabilir, yorulmaz ve 7/24 çalışabilir. Bu bilim kurgu değil; bunun bileşenleri şu anda mevcut. Aslında, TRM Labs, dolandırıcıların, hedefin sosyal medya varlığını özetleyip dolandırıcılığı kişiselleştirme veya geçmişte kurbanlar üzerinde işe yarayanları analiz edip dolandırıcılık senaryolarını optimize etme gibi görevleri otomatikleştirmek için AI ajanlarını kullandığını uyarıyor. Yeni dolandırıcılık tekniklerini güvenli bir şekilde test etmek için bir kurbanı simüle eden “kurban kişilik” ajanlarından da bahsediliyor. Bu, AI'nın hileli bir kullanımıdır; dolandırıcıların sizden önce dolandırıcılıkları AI üzerinde test etmeleri.

Teknik açıdan AI ajanı, çeşitli araçlarla entegre olabilir: e-posta gönderebilir, VoIP aramalar yapabilir (AI sesleri ile), belgeler oluşturabilir, vb. Yakında, AI sesinin bankanızın dolandırıcılık departmanından olduğunu iddia ederek akıllı bir şekilde konuşacağı otomatik telefon dolandırıcılığıyla karşılaşabiliriz. Veya bir AI, ele geçirilmiş bir e-posta hesabını devralıp kurbanın kontaklarıyla para talep etmek için sohbet edebilir. Kombinasyonlar sonsuzdur. Sam Altman'ın, “herkesin parasını alabilecek” olan düşmanca AI'larla ilgili kasvetli uyarısı bu duruma işaret etmektedir. AI, platformlar arası çoklu görev yapabildiğinde – belki bir GPT örneği kurbanla konuşurken, diğeri zayıf şifreleri kırmaya, bir diğeri ise kimlik bilgileri alındığında fonları transfer etmeye yardımcı olabilir – bu, insanüstü verimlilikle tam teşekküllü bir dolandırıcılık montaj hattı olur. İnsan suçlulardan farklı olarak, AI dalgınlık yapmaz veya uyku ihtiyacı duymaz.

Güvenlik uzmanlarının ve kolluk kuvvetlerinin bu duruma karşı hareketsiz kalmadığını belirtmek gerekir. AI tehditlerini karşılamak için AI çözümleri araştırıyorlar (bundan bir sonraki bölümde daha fazla bahsedilecek). Ancak gerçek şu ki, AI destekli dolandırıcılıkların ölçeklenebilirliği mevcut savunmaları zorlayacak. Geleneksel dolandırıcılık algılama (basit kurallar, bilinen kötü anahtar kelimeler vb.) AI'nın sürekli değişken, bağlam farkında saldırılar üretmesi karşısında başarısız olabilir. Bu durumu hafifletmek için teknoloji şirketleri, düzenleyiciler ve kullanıcıların kendilerini içeren büyük bir koordineli çabaya ihtiyaç olacaktır. Düzenleyiciler, AI tarafından üretilen içeriklere etiket konulmasını veya sahte kimlikleri ortadan kaldırmak için daha iyi kimlik doğrulama yöntemlerinin gerekliliğini tartışmaya başlamıştır. Geçici olarak, bireysel düzeyde sıfır güven yaklaşımları (güvenmemek, her zaman doğrulamak) kritik olacaktır.

AI ajanlarının döneminde güvende kalmak: Daha önce verilen birçok ipucu en iyi zırhınızdır – kuşkuculuk, bağımsız doğrulama, ajanların çıkarabileceği verileri fazla paylaşmamak vb. AI ajanları ortaya çıktıkça, biraz “garip” veya fazla formül gibi hissettiren herhangi bir etkileşime karşı şüphenizi artırmalısınız. Örneğin, bir AI bir dolandırıcılık sohbetinin çoğunu yönetebilir, ancak beklenmedik bir soruda tökezleyebilir – biri kişisel bir soruyu görmezden gelir ve senaryosuna devam ederse dikkatli olun. Hesaplarınızda çok faktörlü kimlik doğrulama (MFA) kullanmaya devam edin; AI bir şifreyi açtırsa bile, ikinci bir faktör (ve özellikle fiziksel bir güvenlik anahtarı) onun oturum açmasını engelleyebilir. Mali hesaplarınızı dikkatle izleyin, izinsiz işlemler için – AI işlem başlatabilir, ancak bunları hızlıca yakalayabilirseniz iptal veya ters çevirebilirsiniz. Önemle, kritik iletişimlerde doğruluk talep edin: “bankanız” e-posta veya aramalar yaparsa, onların resmi numaradan geri arayacağınızı söyleyin.İşleminiz uzun olduğu için, içeriğinizin Türkçe çevirisini parça parça sağlayacağım:


Orijinal metin: "genuine institution will refuse that. As consumers, we may also see new tools emerge (perhaps AI-driven) for us to verify content – for example, browser plugins that can flag suspected AI-generated text or deepfake videos. Staying informed about such protective tech and using it will help level the playing field."

Çeviri: "gerçek bir kurum bunu reddeder. Tüketiciler olarak, içeriği doğrulamak için yeni araçların ortaya çıkabileceğini görebiliriz (belki de AI tarafından yönlendirilen) – örneğin, AI tarafından üretilmiş metinleri veya derin sahte videoları işaretleyebilen tarayıcı eklentileri. Bu koruyucu teknolojiler hakkında bilgi sahibi olmak ve bunları kullanmak, dengeyi sağlamaya yardımcı olacaktır."


Orijinal metin: "Ultimately, in this AI arms race, human vigilance is paramount. By recognizing that the person on the other end might not be a person at all, you can adjust your level of trust accordingly. We’re entering a time when you truly can’t take digital interactions at face value. While that is disconcerting, being aware of it is half the battle. The scams may be automated, but if you automate your skepticism in response – treating every unsolicited ask as malicious until proven otherwise – you compel even the smartest AI con to surmount a very high bar to fool you."

Çeviri: "Sonuç olarak, bu AI silah yarışında insan dikkati çok önemlidir. Karşı taraftaki kişinin bir insan olmayabileceğini fark ederek güven seviyenizi buna göre ayarlayabilirsiniz. Dijital etkileşimleri yüzeysel olarak kabul edemeyeceğiniz bir döneme giriyoruz. Bu rahatsız edici olsa da, farkında olmak mücadelenin yarısıdır. Dolandırıcılıklar otomatik olabilir, ancak siz eğer cevaben şüphenizi otomatikleştirirseniz - her istenmeyen talebi aksi ispatlanana kadar kötü niyetli kabul ederseniz - en akıllı AI dolandırıcısının bile sizi kandırmak için çok yüksek bir standardı aşması gerekecek."


Orijinal metin: "## 9. How Authorities and Industry are Fighting Back"

Çeviri: "## 9. Yetkililer ve Endüstri Nasıl Mücadele Ediyor"


Orijinal metin: "It’s not all doom and gloom – the same AI technology empowering scammers can be harnessed to detect and prevent fraud, and there’s a concerted effort underway to do just that. Blockchain analytics firms, cybersecurity companies, and law enforcement are increasingly using AI and machine learning to counter the wave of AI-powered crypto scams. It’s a classic cat-and-mouse dynamic. Here’s how the good guys are responding:"

Çeviri: "Her şey karanlık ve kasvetli değil – dolandırıcıları güçlendiren aynı AI teknolojisi, dolandırıcılığı tespit edip önlemek için kullanılabilir ve bunu yapmak için koordineli bir çaba var. Blok zinciri analiz firmaları, siber güvenlik şirketleri ve kolluk kuvvetleri giderek daha fazla AI ve makine öğrenimini AI destekli kripto dolandırıcılıklarına karşı kullanıyor. Bu, klasik bir kedi-fare dinamiğidir. İyi adamların nasıl bir yanıt verdiği aşağıda:"


Geriye kalan çevirileri de parça parça sağlamaya devam edeceğim.Content: yeni iş ortağı), kapsamlı bir durum tespiti yapın ve belki de büyük işlemler için fiziksel bir yüz yüze görüşme talep edin. Söz konusu olan paranız ise her şeyi iki kez doğrulamakta sorun yok. Atasözü der ki, "Güvenme, teğet geç" - başlangıçta blok zinciri işlemleri hakkında söylenmiş olsa da, şimdi iletişimler için de geçerli.

  • Hedef alınmanız durumunda rapor edin ve yardım isteyin: Bir dolandırıcılık girişimiyle karşılaşırsanız, bunu platformlara bildirin (kötü niyetli hesapları kaldırmak için harekete geçiyorlar) ve Chainabuse veya devlet dolandırıcılık siteleri gibi sitelere rapor edin. Bu, topluluğa yardımcı olur ve soruşturmalara katkı sağlayabilir. Ve ne yazık ki mağdur olursanız, derhal yetkililerle iletişime geçin – kurtarma zor olsa da, erken raporlama şansı artırır. Ayrıca, davanız başkalarının dolandırılmasını önlemek için değerli bir istihbarat sağlayabilir.

Sonuç olarak, yapay zeka destekli kripto dolandırıcılıklarının yükselişi ciddi bir zorluk, ancak aşılamaz bir zorluk değil. Düşmanın oyun kitabını bilerek – deepfake'ler, ses klonları, yapay zeka sohbet robotları, sahte yapay zeka yatırımları ve daha fazlası – hamlelerini öngörebilir ve tuzaklardan kaçınabilirsiniz. Teknoloji her iki tarafta da gelişmeye devam edecek. Bugün deepfake videolar ve GPT ile yazılmış e-postalar; yarın belki de daha da sofistike aldatmacalar olacak. Ancak temelinde, çoğu dolandırıcılık sizi kendi çıkarınıza aykırı bir şey yapmaya zorluyor – para göndermek, bir sırrı ifşa etmek, güvenlik önlemlerini aşmak. Bu, duraklayıp edindiğiniz bilgileri uygulamak için sizin ipucunuz. Dikkatli olun, bilgili olun ve en akıllı makine tarafından yapılan dolandırıcılıkları bile alt edebilirsiniz. En güçlü savunmanız en nihayetinde kendi eleştirel düşüncenizdir. Yapay sahtekarlıkların dünyasında, gerçek şüphecilik altın değerindedir.

Yasal Uyarı: Bu makalede sağlanan bilgiler yalnızca eğitim amaçlıdır ve finansal veya hukuki tavsiye olarak değerlendirilmemelidir. Kripto varlıklarla ilgilenirken her zaman kendi araştırmanızı yapın veya bir uzmana danışın.
Son Araştırma Makaleleri
Tüm Araştırma Makalelerini Göster