المحفظة

أفضل 10 عمليات احتيال بالعملات المشفرة المدعومة بالذكاء الاصطناعي في عام 2025 وكيفية حماية أموالك

أفضل 10 عمليات احتيال بالعملات المشفرة المدعومة بالذكاء الاصطناعي في عام 2025 وكيفية حماية أموالك

يواجه مستثمرو العملات المشفرة بانتظام تهديدًا جديدًا وجديًا: المحتالون المسلحون بالذكاء الاصطناعي المتقدم. الاحتيال بالعملات المشفرة المدعوم بالذكاء الاصطناعي قد انفجر في العام الماضي - حيث ارتفعت تقارير الاحتيالات المدعومة بالذكاء الاصطناعي التوليدي بنسبة 456% بين منتصف 2024 ومنتصف 2025.

الآن يستخدم المحتالون الذكاء الاصطناعي لخلق مقاطع فيديو وأصوات ورسائل مزيفة شبيهة بالحقيقية، مما يجعل الاحتيالات بالعملات المشفرة أكثر إقناعًا وأصعب في الكشف عن أي وقت مضى. وفقًا لمكتب التحقيقات الفيدرالي، تم تقديم ما يقرب من 150,000 شكوى احتيال متعلقة بالعملات المشفرة في عام 2024، مع خسائر تجاوزت 3.9 مليار دولار في الولايات المتحدة وحدها. على الصعيد العالمي، تجاوزت خسائر عمليات الاحتيال بالعملات المشفرة 10.7 مليار دولار في عام 2024 - وقد يكون هذا مجرد قمة الجليد نظرًا لأن حوالي 15% فقط من الضحايا يبلغون عن الجرائم.

حتى سام ألتمان، الرئيس التنفيذي لـOpenAI, حذر من أن قدرة الذكاء الاصطناعي على تقليد البشر قد "هزمت تمامًا معظم طرق المصادقة" ويمكن أن تحفز "أزمة احتيال وشيكة كبيرة". في هذه المقالة، سنقوم بتفصيل أفضل 10 عمليات احتيال للعملات المشفرة تعتمد على الذكاء الاصطناعي المنتشرة في الصناعة، توضيح كيف تعمل مع أمثلة حقيقية، والأهم من ذلك، كيف يمكنكم حماية أنفسكم.

be87d68f-600e-4f3f-817f-24e725a46810.png

الرسم البياني: زادت حصة معاملات الاحتيال بالعملات المشفرة التي تشمل أدوات الذكاء الاصطناعي بشكل كبير منذ عام 2021، حيث تم ربط حوالي 60% من جميع عناوين إيداع الاحتيال في عام 2025 بخطط مدعومة بالذكاء الاصطناعي. وهذا يعكس مدى سرعة تبني الجهات السلبية للذكاء الاصطناعي لتعزيز الاحتيال.

1. عمليات الاحتيال بالدعاية العميقة للمشاهير (الفيديوهات المزيفة

والبث المباشر)

واحدة من عمليات الاحتيال بالعملات المشفرة المدعومة بالذكاء الاصطناعي الأكثر تتوغلًا تتضمن التزييف العميق لشخصيات مشهورة للترويج لمخططات زائفة. يقوم المحتالون بتقليد شخصيات تكنولوجيا وعملات مشفرة معروفة - إيلون ماسك هو المفضل - في فيديوهات تروج لعمليات giveaway زائفة أو منصات استثمار. على سبيل المثال، يقوم المجرمون باختراق قنوات يوتيوب الشهيرة وبث فيديوهات معدلة لإيلون ماسك (أو مؤثرين آخرين في مجال العملات الرقمية مثل براد جارلينجهاوس من Ripple أو مايكل سايلور من MicroStrategy) يظهرون فيها واعدين بـ "مضاعفة بيتكوين الخاص بك" أو عوائد غير واقعية أخرى. في الواقع، تم التلاعب بالفيديو والصوت بواسطة الذكاء الاصطناعي؛ لم يصدر هؤلاء الأشخاص الحقيقيين هذه الادعاءات أبدًا. المشاهدون الذين يرسلون العملات المشفرة للعناوين المعلن عنها أملًا في الحصول على مكافآت يسرقون فحسب.

هذه تطور لاحتيالات giveaway بالعملات المشفرة التي استخدمت مقاطع حقيقية من مقابلات المشاهير. الآن، مع تكنولوجيا التزييف العميق، يقوم المحتالون بإدخال محتوى صوتي/مرئي جديد بحيث يبدو أن المشاهير يوصون مباشرًا بموقع الاحتيال الخاص بهم. يمكن أن تكون هذه البثوث الزائفة المقنعة بشدة للوهلة الأولى. تلقت Chainabuse (موقع للإبلاغ عن الاحتيال العام) تقارير عن بث مزيف لإيلون ماسك في منتصف 2024 الذي جذب العديد من الضحايا في غضون دقائق، مما جنى الأموال الكبيرة للمحتالين. أظهرت تحليلات blockchain لاحقًا أن عناوين الاحتيال تلقت بشكل إجمالي 5 ملايين دولار من الضحايا بين مارس 2024 ويناير 2025، وجنت خطة مزيفة أخرى لماسك تدعي "منصة تداول بالذكاء الصناعي" أكثر من 3.3 مليون دولار. وجدت دراسة أجرتها شركة الأمن السيبراني Sensity أن ماسك هو الأكثر زيفًا في عمليات الاحتيال الاستثمارية، على الأرجح لأن صورته تضفي مصداقية وغالبًا ما يتحدث عن العملات الرقمية. يستغل المحتالون تلك الثقة.

لتزيد من تعقيد الأمور، توفر الآن تقنية التزييف العميق المباشر مكالمات فيديو في الوقت الفعلي بوجه مزيف. يعني هذا أن المحتال يمكنه الظهور حرفيًا كشخص آخر على مكالمة Zoom. في حالة ملفتة، انتحل المحتالون شخصية المدير المالي لشركة ما وزملائهم على مكالمة فيديو باستخدام تقنية استبدال الوجه بالمزيف، مما أدى إلى خداع موظف لتحويل 25 مليون دولار للمحتالين. ظهرت الشخصيات التنفيذية المزيفة حقيقية وصوتت حقيقة - سيناريو كابوسي لأي منظمة. كما أشار سام ألتمان من OpenAI، "التزييف العميق للصوت أو الفيديو أصبح لا يمكن تمييزه عن الواقع". بالنسبة لمعظم مستثمري العملات الرقمية، يمكن أن يكون فيديو تزييف عميق لشخصية موثوقة مثل مدير تنفيذي مشهور أو مؤسس مشروع مثير

للإعجاب للغاية.

كيف تكتشف وتتجنب هذه العمليات الاحتيالية: كن متشككًا للغاية في العروض الترويجية للعملات المشفرة "الجيدة لدرجة لا تُصَدّق"، حتى لو تضمنت مشاهير. تحقق من الفيديو بعناية - قد تُظهر التزييفات العميقة تفاصيل غريبة مثل إغلاق العين بشكل غير طبيعي، وحركات فم غريبة أو إضاءة غير متطابقة حول الوجه. استمع إلى نغمة صوت غير طبيعية أو تشويش صوتي. إذا وعد شخص معروف فجأة بربح مضمون أو giveaways (خاصة في بث مباشر يطلب منك إرسال العملات المشفرة)، فهو على الأرجح عملية احتيال. تحقق من المصادر الرسمية؛ على سبيل المثال، يصرح إيلون ماسك مرارًا وتكرارًا أنه لا يقوم بعمليات giveaway بالعملات المشفرة. لا ترسل أموالًا لعناوين عشوائية من فيديو. عند الشك، توقف - يعتمد المحتالون على الحماس والعجلة. بالتحقق لحظة من القنوات الرسمية أو وسائل الإعلام عما إذا كان العرض حقيقيًا (لن يكون)، يمكنك تجنب الوقوع في فخ هذه التزييفات العميقة للترخيص.

2. عمليات احتيال انتحال الشخصية مع أصوات وفيديوهات

تزييف عميق (المدراء التنفيذيون أو الأشخاص المقربون)

لا تقتصر التزييفات العميقة للذكاء الصناعي على المليارديرات المشهورين فقط - يستخدمها المحتالون لانتحال شخصيات تعرفها أو شخصيات السلطة التي تثق بها. في هذه المخططات، يستغل المجرمون نسخ أصوات مولدة بالذكاء الاصطناعي وصور فيديو رمزية لخداع الضحايا في سياقات أكثر شخصية. أحد الأب

يحاليات المختلفة المثيرة للقلق هو احتيال "مكالمة طارئة من أحد المقربين": يتلقى الضحية مكالمة هاتفية ويسمع، على سبيل المثال، صوت حفيده أو زوجته يزعم أن هناك مشكلة طارئة ويطلب المال (غالبًا بالعملات المشفرة أو التحويل البنكي). في الواقع، لم يتصل أحد أفراد العائلة الحقيقي أبدًا - حيث قام المحتالون بأخذ عينة من صوتهم (ربما من فيديو على وسائل التواصل الاجتماعي) واستخدموا الذكاء الاصطناعي لاستنساخ خطابهم ونبرة صوتهم، ثم اتصلوا بالضحية في حالة ضيق. لقد استغ

طب هذه جهود احتيال الدول العالمية بالفعل، مستغلة مشاعر الإنسان. مجرد مقطع صوتي قصير يكفي لإنشاء استنساخ مقنع باستخدام أدوات الذكاء الاصطناعي الحديثة.

هناك نوع آخر يستهدف الشركات والمستثمرين من خلال تنكر المدراء التنفيذيين أو الشركاء. كما ذكر، انتحل المحتالون في أوائل 2024 شخصية المدير المالي لشركة Arup العالمية في مكالمة فيديو، لكن هذه ليست الحالة الوحيدة. في هونغ كونغ، تعرض بنك للاحتيال بملايين الدولارات بعد أن امتثل الموظفين لتعليمات بدت وكأنها من قادة الشركة الخاصين بهم - أصوات مولدة بالذكاء الاصطناعي. لقد شاهدنا أيضًا محت

الوهميين للهوية الخاصة بمؤسسي الشركات الناشئة ومسؤولين في بورصات العملات الرقمية، يتصلون المستثمرين أو العملاء عبر محادثات الفيديو لتفويض تحويلات احتيالية. تستغل التزييفات العميقة "لانتحال الهوية للمدير التنفيذي" الحقيقة أن العديد من التفاعلات التجارية انتقلت إلى الإنترنت. إذا كنت تتعرف على وجه وصوت رئيسك على مكالمة Zoom، فأنت تميل إلى الوثوق بهم. يمكن لبرامج تركيب الوجه الحية وضع وجه الهدف على وجه المحتال في الوقت الفعلي، مما يجعل من ش

بوجينة يبدو أن الشخص الفعلي يتحدث. يتم إرشاد الضحية بعد ذلك بإرسال أموال أو الكشف عن رموز الأمان. قد تدرك بعض الشركات فقط أنّها تعرضت للخداع بعد أن تكون الأموال قد اختفت.

حتى أن المحتالون يقومون بدمج الأساليب لتحقيق عمليات احتيال "تحضيرية" مطولة: بدأت طواقم القيام بعمليات احتيال تربية الخنازير (احتيالات استثمار طويلة الأجل، انظر القسم 3) باستخدام مكالمات فيديو قصيرة "لإثبات" أن شخصياتهم الزائفة حقيقية. باستخدام إما

ممثل مستأجر أو نموذج تزييف عميق لشخصية جذابة، سوف يدخلون في مكالمة فيديو مع ضحية لبناء الثقة مباشرة بما يكفي، ثم يستمرون بالنص. لاحظ باحثو معامل TRM حالات حلقات احتيال تدفع لاستئجار تزييفٍ عميقٍ كخدمة - أي استجار أدوات الذكاء الاصطناعي لإجراء انتحال زائف بشكل مباشر - مما يدل على سوق جنائي متنامي للتزييفات العميقة حسب الطلب. في حالة واحدة، أنفق شبكة احتيال جزءًا من أرباحها

الافتراضية على خدمة رقمية وجمعت أكثر من 60 مليون دولار من الضحايا، مما يشير إلى أن الاستثمار في التكنولوجيا المدعومة بالذكاء الاصطناعي حقق أرباحًا كبيرة.

كيف تحمي نفسك: الحل في التحقق عبر القنوات الثانوية. إذا تلقيت مكالمة أو فيديو دردشة غير متوقع يطلب المال أو معلومات حساسة، لا تق

تقم بأي رد فعل فوريًا، بغض النظر عن المظهر/الصوت. أغلِق المكالمة و اتصل بالشخص المعروف على رقمه المعروف، أو تحقق من جهة اتصال أخرى. على سبيل المثال، إذا "أرسلك رئيسك" رسالة عن دفع، تحقق من بمجرد الاتصال برئيسك مباشرة أو التأكيد مع زميل. يمكن للعائلات إعداد كلمات رمزية للطوارئ - إذا لم يعرف المتصل الذي يزعم أنه قريبك الرمز المنسق مسبقًا، ستعرف أنه احتيال. كن حذرًا من أي مكالمات فيديو يكون فيها وجه الشخص يبدو غريبًا قلي

لًا (سلس جدًا، تفاصيل عيون أو شعر غريب) أو الصوت يبدو قليلا مؤخرًا أو كأنه صوت روبوت. يجب دائمًا التحقق من التعليمات المالية عبر الفيديو/البريد الإلكتروني بصوت في شخص أو تأكيد صوت على خط موثوق به. كما أشار سام ألتمان، لم تعد المصادقة التقليدية (مثل التعرف على الصوت) موثوقة. تعامل مع أي طلب عاجل غير مرغوب فيه للتحويلات أو العملات المشفرة بشك كبير، حتى لو "أتى من" شخص تثق به. تأخذ بضع دقائق للتحقق من الهوية بشكل مستقل

يمكنك من إنقاذ نفسك (أو شركتك) من عملية احتيال تزييف عميق مكلفة.

3. عمليات احتيال "تربية الخنازير" المعززة بتقنية الذكاء

الاصطناعي: عمليات احتيال رومانسية واستثمارية

انتقل ما يسمى بعمليات احتيال "تربية الخنازير" - وهي مخططات طويلة الأجل حيث يقوم المحتالون بتكوين علاقة عبر الإنترنت مع الضحية قبل أن يستنزفوا مدخراتهم - إلى مستوى أكثر خطورة بفضل الذكاء الاصطناعي. في عملية ترب

ية الخنازير النموذجية (غالبًا ما تكون قصة حب أو صداقة مُنَمِّيَة عبر وسائل التواصل الاجتماعي أو تطبيقات المواعدة)، يقضي المحتالون أسابيع أو أشهرًا لاكتساب ثقة الضحية. في النهاية، يعرضون لها فرصة استثمار مذهلة في العملات المشفرة ويقنعونها بضخ الأموال، ليكون كل المخطط في النهاية زائفًا. هذه العمليات مرهقة للمحتالين، الذين يجب عليهم المحادثة يوميًا واللعب بطريقة

مشرقة دور الحبيب أو المعلم. الآن، قامت روبوتات الدردشة الذكية والتزييفات العميقة بعز Certainly, below is the translation of the provided content into Arabic, following your instructions to skip translation for markdown links:


وإصدارات غير مشروعة غير خاضعة للرقابة مثل "WormGPT" و "FraudGPT" – حيث يمكنها إنتاج رسائل سلسة وجذابة بأي لغة، على مدار الساعة. هذا يعني أن محتالًا واحدًا يمكنه إدارة العشرات من الضحايا في وقت واحد، حيث يصنع الذكاء الاصطناعي نصوصًا محببة مطابقة لكل ضحية، أو تحليلات سوقية، أو أي شيء يتطلبه البرنامج. في الواقع، وجد تحقيق عام 2023 من قبل شركة Sophos أن مجموعات "ذبح الخنازير" بدأت في استخدام ChatGPT لكتابة حواراتهم؛ حتى أن أحدهم تلقى رسالة غريبة لُصِق فيها نص كشف بطريقة غير متوقعة أنه تم إنشاؤه بواسطة الذكاء الاصطناعي. بغض النظر عن الخطأ، تجعل نماذج اللغة الكبيرة المحتالين قادرين على "تفصيل" نهجهم بشكل دقيق - بتعديل النغمة والمحتوى لتتناسب تمامًا مع خلفية وظروف كل ضحية. لقد انتهت أيام النصوص الركيكة أو النسخ واللصق. مع الذكاء الاصطناعي، تبدو الرسائل أصلية، مما يجعل الضحايا أكثر عرضة للإغراء النهائي.

كما يقوم الذكاء الاصطناعي بتكسير حاجز اللغة الذي كان يحد من هذه الاحتيالات في السابق. في البداية، كانت العديد من حلقات "ذبح الخنازير" متمركزة في جنوب شرق آسيا تستهدف الضحايا الناطقين بالصينية. وقد أعاق التوسع إلى الضحايا الغربيين ضعف مهارات الإنجليزية لدى المحتالين - إذ كان النحو الركيك غالبًا ما يكون إشارة تحذير. الآن، يمكن أن تتيح الترجمة وكتابة النصوص المعتمدة على LLM للمتحدثين غير الناطقين بالإنجليزية الاحتيال على الآخرين بأسلوب سلس في الإنجليزية أو الألمانية أو اليابانية أو أي سوق مربح. يقوم المحتالون بإدخال الرسائل الواردة إلى الذكاء الاصطناعي لترجمتها وإنشاء الردود، مما يمكنهم من الانتحال على أنهم مستثمرون عالميون أو شركاء رومانسيين حتى في لغات لا يتحدثون بها. وقد وسّع هذا بشكل كبير دائرة الأهداف. يمكن أن يتلقى المهنيون المتعلمون جيدًا في أوروبا أو أمريكا الشمالية، الذين ربما يكونون قد تجاهلوا رسائل الاحتيال الركيكة، مراسلات مصقولة ومحلية تمامًا من "رجل أعمال جذاب" تعرفوا عليه عبر الإنترنت. والنتيجة؟ مزيد من الضحايا يُغذون (مثل "الخنازير") للذبح النهائي.

ولا ننسى استخدام تقنيات التزوير العميق في "ذبح الخنازير". في حين تجري معظم عمليات الإعداد عبر النصوص، أحيانًا يقوم المحتالون بتحديد مواعيد لمكالمات فيديو قصيرة لتهدئة الشكوك. هنا، يزداد استخدام الفيديوهات المزيفة التي تتلاعب بالوجه بشكل عميق – على سبيل المثال، يمكن أن يستأجر المحتالون امرأة لتظهر على الكاميرا لكنهم يستخدمون الذكاء الاصطناعي لاستبدال وجهها بالصور المسروقة التي كانوا يستخدمونها في الملف الشخصي. تقنع هذه الاستراتيجية، "براهين على الحياة"، الضحية بأن حبيبها عبر الإنترنت حقيقي. (حتى أن بعض العمليات تعلن عن الحاجة إلى "نماذج وجه حقيقية" التي تظهر بفضل فلاتر الذكاء الاصطناعي كشريك الأحلام للضحية على الفيديو.) بمجرد تأمين الثقة، يوجه المحتالون الضحايا للاستثمار في منصات العملة المشفرة الزائفة أو برامج "تعدين السيولة"، غالبًا ما يعرضون لقطات أرباح مزيفة لجذب الودائع الأكبر. يُعرف أن الضحايا يعيدون تمويل منازلهم أو يستنزفون خطط 401(k) تحت وهم الحياة المشتركة مع المحتال أو العوائد الكبيرة المقبلة. إنه لأمر مدمر تمامًا – والذكاء الاصطناعي يزيد فقط من مستوى الاحتيال.

كيفية تجنب احتيالات "ذبح الخنازير": حافظ على درجة صحية من الشك في العلاقات أو التوجيهات عبر الإنترنت التي تبدأ بشكل عشوائي وتصبح مكثفة بشكل غير معتاد. إذا كان شخص ما لم تقابل قط في حياتك يدلك على الاستثمار في العملات المشفرة أو يطلب المساعدة المالية، فهذا تحذير واضح. استخدم البحث العكسي عن الصور الشخصية لمعرفة ما إذا كانت الصور مسروقة (يستخدم العديد من المحتالين صورًا لنماذج أو ضحايا آخرين). كن حذرًا من مكالمات الفيديو حيث تكون جودة الكاميرا غريبة أو لا يظهر الشخص وجهه بالكامل – قد يكون يختبئ وراء تشويه التعرف على الوجه. الضغط للاستثمار بسرعة أو الادعاءات بوجود معرفة داخلية هي علامات على خداع. تذكر أيضًا أن المهنيين الاستثماريين الشرعيين أو الشركاء الرومانسيين عادةً ما لا يعدون بعوائد مضمونة. أصدرت مكتب التحقيقات الفدرالي ووكالات أخرى تحذيرات رسمية بشأن احتيالات "ذبح الخنازير" و"الرومانسية بالعملات المشفرة" – لذا قم بتثقيف نفسك والآخرين حول كيفية تشغيل هذه الاحتيالات. إذا كنت تشك في أن شخصًا ما قد يكون محتالًا، فاقطع الاتصال ولا ترسل له أموالًا أو عملات مشفرة أبدًا. وإذا تم استهدافك، أبلغ عنه (بشكل مجهول إذا لزم الأمر) لمساعدة السلطات في تعقب هذه الشبكات. الوعي هو أفضل دفاع لك، حتى لا يتسبب الذكاء الاصطناعي في الإيقاع بك بالحديث الحلو.

4. رسائل البريد الإلكتروني الصيدية المكتوبة بالذكاء الاصطناعي والمزيد (احتيالات ذكية على نطاق واسع)

الصيد – تلك الرسائل الإلكترونية أو النصوص الاحتيالية التي تخدعك للنقر على رابط خبيث أو الإفشاء عن معلومات خاصة – لطالما كان لعبة أرقام. يطلق المحتالون آلاف الرسائل العامة ("حسابك في خطر، قم بتسجيل الدخول هنا...") على آمل أن يأخذ بضع أشخاص الطعم. الآن، يجعل الذكاء الاصطناعي الصيد أكثر إقناعًا وتركيزًا. باستخدام أدوات مثل نماذج اللغة التوليدية، يمكن للمهاجمين بسهولة صياغة رسائل شخصية وسلسة تقلد نمط الاتصالات الحقيقية، مما يرفع بشكل كبير من معدل نجاحهم.

يمكن لنماذج اللغة الكبيرة (LLMs) أن تولد فخاخ صيد تكاد تكون غير قابلة للتمييز عن بريد إلكتروني حقيقي من مصرفك، أو منصتك للتبادل الرقمي، أو صديقك. فهي تلغي الأخطاء اللغوية والتعبير الخاطئ الذي كان دائماً يكشف عن الاحتيالات القديمة. يمكن توجيه الذكاء الاصطناعي، على سبيل المثال، لكتابة بريد إلكتروني عاجل من "[Your Crypto Exchange] Security" يحذرك بشأن سحب وتوفير رابط لـ"تأمين حسابك". سيكون النص مصقولًا ومتوافقًا مع العلامة التجارية. يستخدم المحتالون أيضًا الذكاء الاصطناعي لمسح وسائل التواصل الاجتماعي الخاصة بك وتخصيص الرسائل بدقة – إشارة إلى المعاملات الأخيرة أو تسمية أحد الأصدقاء – وهي تقنية تعرف بالصيد بالرمح. كان مستوى التخصيص هذا يتطلب جهدًا كبيرًا، لكن يمكن للوكيل الذكاء الاصطناعي تحقيقه بثواني عن طريق جمع البيانات العامة.

توجد حتى أدوات الذكاء الاصطناعي السرية التي تم بناؤها بشكل صريح للجرائم الإلكترونية. نظرًا لأن النماذج العامة مثل ChatGPT تحتوي على فلاتر ضد الاستخدام غير المشروع، قام المجرمون بتطوير أو شراء نماذج اللغة الكبيرة في السوق السوداء مثل "WormGPT" و"FraudGPT" التي لا تحتوي على مثل هذه القيود. يمكن لهؤلاء الذكاء الاصطناعي الخبيث، المتاحين على منتديات الويب المظلم، إخراج رسائل بريد إلكتروني صيدية مقنعة، أو رمز خبيث، أو حتى نصائح احتيالية خطوة بخطوة. باستخدام طلب بسيط، يمكن لمحتال محدود المهارات في اللغة الإنجليزية أن ينتج بريدًا إلكترونيًا شبه مثالي بأي لغة، أو يولد محتوى نص كامل لموقع ويب صيد. وفقًا لشركة تدريب الأمن السيبراني KnowBe4، بحلول عام 2024 أظهرت حوالي 74٪ من رسائل البريد الإلكتروني الصيدية التي قاموا بتحليلها علامات استخدام الذكاء الاصطناعي – بمعنى آخر، أصبح معظم جهود الصيد الآن مدعومة بقدرات الكتابة للذكاء الاصطناعي.

بجانب البريد الإلكتروني، تمثل روبوتات الدردشة في المنصات التراسلية تهديدًا. يمكن للمحتالين نشر روبوتات في تلغرام، ديسكورد، واتساب، إلخ، التي تتواصل مع المستخدمين في الوقت الفعلي، تجذبهم كما لو كان إنسانًا سيفعل. على سبيل المثال، قد تقوم بالتغريد عن مشكلة مع محفظة عملاتك الرقمية وتحصل سريعًا على رد من "م مثل، قد تقوم بالتغريد عن مشكلة مع محفظة عملاتك الرقمية وتحصل سريعًا على رد من "ممثل دعم" (في الواقع روبوت) يرسل لك رسالة خاصة. الذكاء الاصطناعي، الذي يتظاهر بأنه خدمة عملاء، يوجهك بعد ذلك خلال "التحقق" المزيف الذي يسرق مفاتيحك السرية. لأن روبوت الدردشة يمكنه فهم أسئلتك والرد عليها بشكل طبيعي، فمن غير المرجح أن تدرك أنه مزيف. يمكن لنوعية الهندسة الاجتماعية المدعومة بالذكاء الاصطناعي خداع حتى المستخدمين المتمرسين تقنيًا. في إحدى الحالات، أنشأ المحتالون روبوت "مساعد استثماري" احتيالي وعد بمساعدة المستخدمين في تداول العملات المشفرة - لم يكن أكثر من فخ لجمع مفاتيح API ومعلومات الحساب.

رسم بياني توضيحي لمفاهيم عن محتال رقمي يستخدم الذكاء الاصطناعي. تتم المساعدة بشكل متزايد في هجمات الصيد والبرمجيات الخبيثة بواسطة خوارزميات الذكاء الاصطناعي، التي يمكنها إنتاج رسائل واقعية وحتى رمز خبيث لسرقة كلمات المرور والأموال الرقمية.

علاوة على ذلك، يمكن للذكاء الاصطناعي أن يساعد في القرصنة عن طريق إنتاج رموز البرنامج الخبيثة وأتمتة الهجمات. على سبيل المثال، يمكن لمجرم بدون مهارات كبيرة في البرمجة أن يطلب من الذكاء الاصطناعي غير المسيطر كتابة برنامج يفرغ محافظ العملات الرقمية أو يثبت جهاز تسجيل المفاتيح لالتقاط العبارات البذور. هناك تقارير عن إنشاء برامج الفدية الأساسية وبرامج السرقة مع مساعدة الذكاء الاصطناعي. في حين أن هذا يتقاطع مع القرصنة أكثر من الاحتيال، فإن الخطوط غير واضحة – غالبًا ما يقوم بريد إلكتروني صيدي بتسليم البرمجيات الخبيثة. بمساعدة الذكاء الاصطناعي، يمكن للمجرمين إنتاج أنواع جديدة من البرمجيات الخبيثة أسرع من قدرة الفرق الأمنية على حجبها. كما يمكن للذكاء الاصطناعي المساعدة في تجاوز فحوصات الأمان أيضًا: حل كابتشا، إنشاء هويات مزيفة لتمرير التحقق (انظر القسم 6)، وحتى كسر كلمات المرور عن طريق التخمين الذكي (مع بقاء المفاتيح التشفيرية القوية آمنة، ولكن لا تعد المفاتيح الضعيفة كذلك). حذر سام ألتمان من أن حتى فحوصات التعرف على الصور الذاتية وتسجيلات الدخول "بالبصمة الصوتية" قد أصبحت سهلة لتخطيها بواسطة الذكاء الاصطناعي، مما يعني أن طرق التحقق التي نعتمد عليها تحتاج إلى ترقيات عاجلة.

كيفية البقاء آمنًا من المراسلين المدعومين بالذكاء الاصطناعي: النصيحة القديمة لا تزال صحيحة – لا تنقر على الروابط المشبوهة أو تحمل المرفقات من مرسلين غير معروفين، بغض النظر عن مدى مصداقية الرسالة. كن في حالة تأهب قصوى لأي تواصل (بريد إلكتروني، نص، رسالة خاصة) يخلق إحساسًا بالحاجة إلى العمل بسرعة أو يطلب بيانات تسجيل دخولك، رموز 2FA، أو العبارات السرية. حتى لو بدت التنسيق واللغة مثالية، تحقق بعناية من البريد المرسل/المجال – ابحث عن أخطاء خفية أو روابط URL غير متطابقة (مثل "binance.support.com" بدلًا من النطاق الحقيقي). تأكد مباشرة مع الخدمة أو الشخص إذا تلقيت طلبًا مريبًا. استخدم قنوات التطبيق/الموقع الرسمية بدلاً من الروابط المقدمة في الرسائل. على منصات التواصل الاجتماعي، لا تثق في "الدعم" الذي يتواصل بشكل استباقي؛ لن تطلب الشركات الشرعية كلمات المرور عبر الرسائل الخاصة. من الناحية التقنية، فعّل الحمايات ضد الصيد مثل فلاتر البريد الإلكتروني وأدوات سمعة الويب – وابقَ على تحديث مع مضاد الفيروسات والبرمجيات لديك لكشف البرمجيات الخبيثة. والأكثر أهمية، حافظ على عقلية شكاكة. إذا كنت تدفع بسرعة أو تفتح المعلومات، فهذا يعني عليك تباطؤ التوجه نحو التحقق. عبر أخذ جميع الرسائل غير المرغوب فيها على مغزاها الحذر، يمكنك تجاوز حتى احتيالات الذكاء الاصطناعي المكتوبة. تذكر، لا يمانع أية شركة أو صديق حقيقي في قضاء دقيقة إضافية للتحقق من المصداقية – بل فقط المحتالين يضغطون للعمل الفوري.

5. روبوتات ومنصات "التجارة بالذكاء الاصطناعي" المزيفة (عملية احتيالية للاستثمار في الذكاء الاصطناعي)

لم تؤدي الحماسة حول الذكاء الاصطناعي إلى استفادة المحتالين عمليًا فحسب – بل أصبحت أيضًا الطعم ذاته. خلال العامين الماضيين، كانت هناك حيث كانت البلاغة حول العملات الرقمية فعالة بشكل كبير وظهرت مشاريع تجارية احتيالية تزعم أن "الذكاء الاصطناعي" هو الوصفة السرية لهم. يعرف المحتالون أن المستثمر ...Translation:

تحقيق الأرباح. وهكذا، يقومون بإنشاء روبوتات تداول وهمية تعتمد على الذكاء الاصطناعي، أو مجموعات إشارة، أو منصات التمويل اللامركزي التي تقترح عوائد مضمونة من خلال نوع من الخوارزميات المتقدمة، بينما في الواقع الأمر كله عبارة عن خداع.

أحد الحيل الشائعة هي خدعة "روبوت تداول الذكاء الاصطناعي": يتم دعوتك (غالباً عبر تليجرام أو ريديت) لاستخدام روبوت يُزعم أنه يستفيد من الذكاء الاصطناعي لتداول العملات المشفرة لتحقيق مكاسب ضخمة. قد يعرض الروبوت نتائج محاكاة أو عرض توضيحي يجري بضع صفقات مربحة في حساب تجريبي. ولكن بمجرد أن تقوم بإيداع أموالك الخاصة ليتداولها الروبوت، يبدأ في الخسارة - أو يختفي المحتالون ببساطة مع أموالك. وفي حالات أخرى، يروّج المحتالون لمؤسسة استثمار "ذكاء اصطناعي" أو تجمع تعدين – ترسل لهم العملات المشفرة للاستثمار، وتنجذب إلى عبارات تسويقية مثل "استراتيجية مملوكة للذكاء الاصطناعي" – لكنه مخطط بونزي. قد يحصل "المستثمرون" الأوائل على جزء من المحافظة لإثبات أنه يعمل، ولكن في النهاية يختفي المشغلون مع الجزء الأكبر من الأموال، تاركين وراءهم موقع ويب متقن دون أي حساب.

خلال طوفان ChatGPT في 2023–2024، ظهرت عشرات العملات الرمزية والمنصات الجديدة التي تدعي بعض الزوايا المتعلقة بالذكاء الاصطناعي. في حين أن بعضها كان مشاريع مشروعة، إلا أن العديد منها كان عبارة عن خداع صريح أو مخططات "الضخ والتفريغ". كان يقوم المحتالون بالإعلان عن عملة رمزية مرتبطة بتطوير الذكاء الاصطناعي، ويراقبون الأموال تتدفق من المستثمرين المتحمسين، ثم يتخلون عن المشروع (انسحاب كلاسيكي للسجادة). كانت فكرة الذكاء الاصطناعي كافية لتضخيم قيمة العملة الرمزية قبل الانهيار. رأينا أيضاً الأخبار المزيفة تُستخدم كسلاح: تم استخدام مقاطع فيديو مزيّفة لوجوه إيلون ماسك وآخرين لدعم "منصة تداول عملات مشفرة بالذكاء الاصطناعي" (كما ذكر آنفًا) لدفع الضحايا للاستثمار. فعلى سبيل المثال، شجع أحد مقاطع الفيديو المزيّفة الناس للاستثمار في منصة عن طريق الادعاء بأنها استخدمت الذكاء الاصطناعي لضمان أرباح التداول - لا وجود لشيء من هذا القبيل. كثيراً ما يجمع هؤلاء المخططات الثقة في شخصية مشهورة مع غموض تكنولوجيا الذكاء الاصطناعي للظهور بمظهر موثوق.

لا يقتصر خداع المحتالين بشأن امتلاك الذكاء الاصطناعي، بل يقوم البعض بالفعل باستخدام الذكاء الاصطناعي لتعزيز الوهم. لاحظت TRM Labs مخطط هرمي رئيسي في 2024 يسمى MetaMax يدّعي تقديم عوائد عالية للتفاعل مع محتوى الوسائط الاجتماعية. ليبدو شرعياً، عرض موقع MetaMax مديراً تنفيذياً وفريقًا – لكن "المدير التنفيذي" كان مجرد صورة رمزية مولدة بواسطة الذكاء الاصطناعي أُنشئت بواسطة تقنية التزييف العميق. بعبارة أخرى، لم يكن هناك شخص حقيقي، فقط صورة ذكاء اصطناعي وربما صوت ذكاء اصطناعي، يطمئن المستثمرين أن MetaMax هو الشيء الكبير التالي. ما زال المخطط يتمكن من جمع ما يقرب من 200 مليون دولار (معظمها من الضحايا في الفلبين) قبل الانهيار. ذهب موقع خداع آخر، babit.cc، إلى حد توليد صور موظفين كاملة باستخدام الذكاء الاصطناعي بدلاً من استخدام صور مسروقة لأشخاص حقيقيين. في حين يمكن للمرء أن يلاحظ بعض الكمال الغريب في تلك الصور، يصبح كل شهر من الممكن أن تكون الوجوه المولدة بالذكاء الاصطناعي أكثر حيوية. من السهل رؤية كيف يمكن لمواقع الخداع المستقبلية أن تمتلك مجموعة كاملة من المديرين التنفيذيين الذين يبدون موثوقين – لا يوجد أي منهم في الواقع.

كيفية تجنب خداع الاستثمار المرتبط بالذكاء الاصطناعي: تعامل مع أي فرصة استثمار "جيدة جدًا لتكون حقيقية" بحذر شديد - خاصة إذا كان يتم التسويق لها بشدة بالقدرات الذكاء الاصطناعي دون تفاصيل واضحة. قم بواجبك المنزلي: إذا كان المشروع يدّعي استخدام الذكاء الاصطناعي، فهل هناك وثائق شرعية أو فريق ذو خبرة وراءه؟ كن حذرًا إذا لم تتمكن من العثور على أي معلومات يمكن التحقق منها عن المؤسسين (أو إذا كانت المعلومات الوحيدة عبارة عن ملفات شخصية مولدة بالذكاء الاصطناعي). لا تثق في التأييد من قبل المشاهير في عالم العملات المشفرة ما لم يتم تأكيده عبر قنوات رسمية؛ في 99٪ من الوقت، الأشخاص مثل ماسك أو CZ أو فيتاليك لا يقومون بشكل عشوائي بإعطاء نصائح تداول أو عروض مضاعفة الأموال. إذا كان روبوت التداول بالذكاء الاصطناعي رائعًا جدًا، فاطلب من مبدعيه سبب عرضهم الوصول إليه بثمن بخس أو الترويج على تليجرام – ألم يكن من الأسهل عليهم فقط استخدامه بشكل خاص ليصبحوا أثرياء؟ غالبًا ما تكشف هذه الطريقة عن الخداع. أيضًا، تذكر أن العوائد المضمونة = علامة حمراء. بغض النظر عن مدى تعقيد الخوارزمية، فإن أسواق العملات المشفرة محفوفة بالمخاطر. الشركات الشرعية ستكون واضحة بشأن المخاطر ولن تعد بعوائد ثابتة عالية. كمستثمر، ضع في اعتبارك أن المحتالين يحبون الكلمات الرنانة – "مدعوم بالذكاء الاصطناعي، كمي، مضمون، خوارزمية سرية" – فهذه هي الأفخاخ للغافلين. التزم بالبورصات والمنصات المعروفة، وإذا كنت مغريًا بمشروع جديد، استثمر فقط ما يمكنك تحمل خسارته بعد التحقق منه بشكل مستقل. عندما تكون في شك، ابحث عن آراء من أصوات موثوقة في المجتمع. في كثير من الأحيان، سيكشف نشر سريع في منتدى أو على ريديت حول "هل سمع أحد عن روبوت XYZ AI؟" تحذيرات إذا كان احتيالاً. باختصار، لا تدع فومو حول تقدمات الذكاء الاصطناعي تسلب حكمك – الشيء الوحيد "المؤتمت" في العديد من هذه المخططات هو سرقة أموالك.

6. الهويات الاصطناعية والتجاوز عبر AI

غالباً ما تشمل احتيالات العملات المشفرة شبكة من الهويات المزيفة – ليس فقط الأشخاص الذين يتم تقليدهم للضحايا، بل أيضًا الحسابات والكيانات التي يستخدمها المحتالون. الآن، يتيح الذكاء الاصطناعي للمحتالين توليد هويات اصطناعية كاملة عند الطلب، متجاوزين الإجراءات التي كانت تهدف إلى تصفية المنتحلين. وهذه لها تداعيات رئيسية: (1) يمكن للمحتالين فتح حسابات في البورصات أو الخدمات بأسماء مزيفة بسهولة أكبر؛ و(2) يمكنهم إضافة جو من الشرعية إلى مواقعهم الخداعية من خلال ملئها "بأعضاء فريق" أو شهادات تم توليدها بواسطة الذكاء الاصطناعي.

من جهة الامتثال، تتطلب العديد من منصات العملات المشفرة فحوصات KYC (اعرف عميلك) – مثل تحميل صورة بطاقة هوية وصورة شخصية. كردة فعل، بدأ المجرمون في استخدام أدوات الذكاء الاصطناعي لإنشاء هويات مزيفة وصور شخصية معدَّلة قادرة على اجتياز هذه الفحوصات. إحدى الأساليب الشائعة هي استخدام مولدات الصور الذكاء الاصطناعي أو تقنيات التزييف العميق لدمج عناصر من هويات حقيقية أو تحسين وتشخيص مظهر شخص يتطابق مع الاسم على هوية مسروقة. كان هناك قصة حديثة في Decrypt لأشخاص يستخدمون ذكاءً اصطناعي أساسي لتوليد صور رخصة قيادة مزيفة لخداع البورصات والمصارف. وحتى التحقق البيومتري ليس آمنًا: يمكن للذكاء الاصطناعي إنتاج فيديو حي لإنسان يحمل هوية أو يقوم بأي حركة يتطلبها النظام. بعبارة أخرى، يمكن لمحتال أن يجلس على جهاز الكمبيوتر الخاص به ويجعل الذكاء الاصطناعي يتحكم بشخص خيالي لفتح حسابات. تُستخدم هذه الحسابات بعدئذٍ في غسيل العملات المسروقة أو setup منصة خداعية. بحلول الوقت الذي يدرك المحققون أن "جون دو" الذي سحب ملايين ليس حقيقيًا، يكون الخط قد برد.

وبالمثل، عند الترويج للاحتيالات، تكون الهويات المزيفة "الموثوقة" مفيدة. لقد أشرنا إلى المديرين التنفيذيين الذين تم إنشاؤهم بواسطة الذكاء الاصطناعي في القسم 5 – إنه جزء من الاتجاه الأوسع. يمكن للمحتالين ملء لينكدين بموظفين غير موجودين (باستخدام صور الوجوه التي أنتجها الذكاء الاصطناعي والسير الذاتية التي تم إنشاؤها تلقائيًا)، إنشاء مراجعات مستخدمين مزيفة بصور الملف الشخصي التي أنتجتها GAN، وحتى توليد وكلاء دعم عملاء مزيفين. أبلغ بعض الضحايا عن الدردشة مع ما اعتقدوا أنه ممثل دعم عملاء لبورصة (ربما عبر شريط محادثة منبثق في موقع اصطياد) وكان الوكيل يملك صورة رمزية واسمًا واقعيًا. قليلون منهم كانوا يعرفون أنه على الأرجح روبوت ذكاء اصطناعي مدعوم بشخصية وهمية. كانت أداة ThisPersonDoesNotExist (أداة ذكاء اصطناعي تنشئ وجوهً واقعية عشوائية) نعمة للمحتالين – في كل مرة يتم فيها تصنيف حساب أو ملف خداعي، يقومون بتوليد وجه فريد جديد للحساب التالي، مما يجعل من الصعب على مرشحات التصيد التكيف.

حتى خارج عمليات الاحتيال التي تستهدف المستخدمين النهائيين، يسهل الاحتيال الهوية المعتمد على الذكاء الاصطناعي الجرائم. تستخدم حلقات منظمة التزييف العميق لخداع إجراءات تحقق الفيديو-KYC الخاصة بالبنوك، مما يسمح لها بإنشاء حسابات أرانب أو حسابات بورصات يمكنها تحويل العملات المشفرة إلى نقد تحت هوية مزيفة. في حالة واحدة، لاحظت يوروبول مجرمين يستخدمون الذكاء الاصطناعي لتجاوز أنظمة التحقق الصوتي في البنوك بتقليد أصوات أصحاب الحسابات. كما ترى الأجهزة الأمنية الآن أدلة على أن عائدات الاحتيال في العملات المشفرة تدفع مقابل هذه "الحزم الهوية" المعتمدة على الذكاء الاصطناعي – تتبعت TRM Labs عملات مشفرة من ضحايا ذبح الخنازير ذاهبة إلى مقدم خدمات ذكاء اصطناعي، على الأرجح لشراء أدوات تزييف عميق أو هويات مزيفة. إنها نظام بيئي إجرامي كامل: شراء هوية مزيفة، استخدامه لإنشاء بنية تحتية خداعية، سرقة الأموال، غسلها عبر البورصات المفتوحة بهويات مزيفة أخرى.

كيفية الدفاع ضد احتيالات الهويات الاصطناعية: للمستخدمين الأفراد، هذا يتعلق بشيء أقل مما قد تواجهه مباشرة و

المزيد عن أن تكون واعيًا بأن الصور أو "التوثيق" يمكن تزويرها. إذا كنت تتعامل مع منصة عملات مشفرة جديدة أو خدمة، قم ببعض التحقيق: هل الفريق حقيقي وقابل للتحقق؟ إذا كنت تتصل بالفيديو بمستشار مالي وهناك شيء يبدو غير طبيعي (على سبيل المثال، غرابة بسيطة في الوجه)، فكر في أنهم قد لا يكونون من يدعون. بالنسبة للشركات، يجب تعزيز KYC وكشف الاحتيال – مثل استخدام الذكاء الاصطناعي لمحاربة الذكاء الاصطناعي، مثل التحقق مما إذا كانت صورة الهوية مولدة أو إذا كانت الصورة الشخصية تزييفًا عميقًا (هناك خوارزميات يمكنها اكتشاف علامات دقيقة). كمستخدم، إحدى النصائح القابلة للتنفيذ هي حماية بيانات هويتك الخاصة. المحتالون غالبًا ما يدربون نماذجهم المزيفة على أي معلومات يمكنهم العثور عليه بشأنك عبر الإنترنت. تقليل ما تشاركه (على سبيل المثال، لا تنشر مقاطع فيديو لنفسك علنًا إذا كان بالإمكان تجنبه، وحفظ الملفات الشخصية خاصة) يمكن أن يقلل من المواد الخام المتاحة للمحاربين السيئين. أيضًا، قم بتمكين والإصرار على تدابير أمان تتجاوز مجرد فحوصات الهوية – على سبيل المثال، بعض البنوك ستجعلك تؤكد عبارة عشوائية عبر الفيديو (من الصعب على التزييف العميق أن يفعل ذلك مباشرة، على الرغم من أنه ليس مستحيلًا). في النهاية، كما يقترح ألتمان، يجب أن تتطور الطريقة التي نتحقق بها من الهوية. التحقق متعدد الجوانب والمستمر (ليس فقط لقطة واحدة) هو أكثر أمانًا. حاليًا، كمستهلك، استفضل الخدمات التي تملك أمان محكم وكن متشككًا إذا طالب فرد أو موقع بتقديم مستنداتك الشخصية أو معلوماتك دون مبرر قوي. إذا كنت تشك في أن حسابًا أو ملفًا وهميًا (ربما ملفًا اجتماعيًا جديدًا تمامًا يتصل بك بشأن الاستثمار في العملات المشفرة)، خاطر بالخطأ في جانب الحذر وانسحب. كل ما قللت من الفرص التي تعطيها للمحتالين لاستخدام هويات مزيفة عليك، كان ذلك أفضل.

7. الروبوتات الاجتماعية المعتمدة على الذكاء الاصطناعي ومحتالي الانتحال

فرق المحتالين في العملات المشفرة لطالما ازدهرت على وسائل التواصل الاجتماعي، بدءًا من تويتر وفيسبوك وصولاً إلى تليجرام وديسكورد. الآن، يعزز الذكاء الاصطناعي الروبوتات والحسابات المزيفة التي تسهل هذه الاحتيالات، مما يجعلها أكثر فعالية وأصعب في التمييز عن المستخدمين الحقيقيين. إذا كنت قد غردت عن العملات المشفرة وحصلت على ردود فوريةالتعرض لـ "الدعم" أو رؤية طلبات صداقة عشوائية من أشخاص جذابين في مجال العملات الرقمية، من المحتمل أنك واجهت هذه المشكلة. تتيح تكنولوجيا الذكاء الاصطناعي للمحتالين نشر جيوش من الروبوتات الإلكترونية التي تبدو أكثر واقعية من أي وقت مضى.

من جانب واحد، يسمح الذكاء الاصطناعي التوليدي لكل روبوت إلكتروني أن يكون له "شخصيته" الفريدة. بدلاً من وجود 1000 روبوت ينشرون جميعاً نفس التعليق المكسور عن حملة توزيع، يمكن لكل منهم الآن إنشاء منشورات فريدة ومتناسقة تتبع النص وتتفادى التكرار الواضح. يمكنهم حتى الاشتراك في محادثة. على سبيل المثال، في المنتديات المتعلقة بالعملات الرقمية أو مجموعات Telegram، يمكن أن يتغلغل الروبوت الإلكتروني في المجموعة من خلال الاندماج، والتحدث بشكل عادي عن الأسواق أو أحدث الرموز الغير قابلة للاستبدال (NFTs)، وبناء مصداقية في المجتمع. ثم، عندما يرسل رسالة خاصة إلى شخص ما ليقدم له "فرصة عظيمة" أو رابط تصيد احتيالي، يكون الهدف أقل شكاً لأنه قد رأى ذلك الحساب يتصرف "بشكل طبيعي" في المجموعة لأسابيع. يمكن للذكاء الاصطناعي أيضاً إنشاء صور بروفايل واقعية لهذه الروبوتات (باستخدام الشبكات العصبية المتزاوجة (GANs) أو ما شابهها)، لذا لا يمكنك فقط القيام ببحث عكسي للصور للقبض على صورة مسروقة. العديد من الحسابات المحتالة على تويتر اليوم ترتدي صور بروفايل تم إنشاؤها بواسطة الذكاء الاصطناعي – غالباً لأشخاص جذابين يبدون ودودين – بدون أي عثرات مميزة كانت تحدث في صور الذكاء الاصطناعي السابقة. حتى السيرة الذاتية والمنشورات مكتوبة بواسطة الذكاء الاصطناعي لتبدو أصيلة.

انتحال الحسابات الشرعية هو مجال آخر حيث يساعد الذكاء الاصطناعي. تطرقنا إلى انتحال الفيديو/الصوت باستخدام تكنولوجيا التزييف العميق، ولكن على المنصات القائمة على النصوص، قد يقوم المحتال بنسخ ملف الشخص المعروف أو مكتب الدعم. يمكن للذكاء الاصطناعي أن يساعد عن طريق إنتاج حسابات مشابهة بسرعة (حسابات بأسماء مستخدمين بها أخطاء تهجئة طفيفة، مثلاً) وإنشاء محتوى يتناسب مع نبرة الحساب الرسمي. عندما يرسل الضحايا رسائل إلى هذه الحسابات الوهمية للدعم، يمكن لروبوتات الدردشة أن تتولى التفاعل، وتوجيههم عبر خطوات "التحقق" التي تسرق معلوماتهم فعلياً. هذا النوع من التصيد الاحتيالي المحادثي أسهل بكثير في النشر باستخدام الذكاء الاصطناعي. في عملية احتيال ملحوظة، تلقى المستخدمون في مجتمع Discord رسائل خاصة مما بدا أنه مسؤول يعرض المساعدة في المطالبة بتوزيع مجاني للعملات؛ ربما كان الذكاء الاصطناعي وراء تلك المحادثات المقنعة التي أرشدت المستخدمين من خلال ربط محافظهم – مباشرة إلى فخ سرق رموزهم.

حجم المشكلة مذهل – محتال واحد (أو فريق صغير) يمكنه تشغيل مئات من هذه الشخصيات المدفوعة بالذكاء الاصطناعي في وقت واحد. قد يستخدمون وكلاء ذكاء اصطناعي لمراقبة الوسائط الاجتماعية لبعض الكلمات الرئيسية (مثل "نسيت كلمة المرور MetaMask") والرد تلقائياً أو إرسال رسالة مباشرة إلى المستخدم برسالة احتيال معدة مسبقاً. قبل الذكاء الاصطناعي، كان عليهم القيام بذلك يدوياً أو استخدام نصوص بدائية سهلة الاكتشاف. الآن أصبح كل شيء أكثر تكيفًا. نرى أيضًا استخدام الذكاء الاصطناعي لإنشاء تفاعل زائف: آلاف التعليقات والإعجابات من حسابات الروبوتات لجعل منشور احتيالي أو رمز عملية احتيال يبدو شائعًا. على سبيل المثال، قد يكون هناك عشرات من "المستثمرين" على تويتر (جميعهم روبوتات) يمدحون المشروع ويشاركون أرباحهم المزعومة. أي شخص يبحث عن المشروع سيرى محادثات إيجابية وقد ينخدع في التفكير بأنها حماسة شرعية نابعة من الجذور.

كيف نحارب عمليات الاحتيال عبر الروبوتات في وسائل التواصل الاجتماعي: أولاً، تعرف على العلامات التي تشير إلى نشاط الروبوتات. إذا تلقيت ردًا عامًا فورياً في اللحظة التي تذكر فيها مشكلة مرتبطة بالعملات الرقمية عبر الإنترنت، افترض أنه ضار. لا تقم أبدًا بالنقر على روابط عشوائية أرسلت بواسطة شخص تواصل معك دون داع، حتى لو كانت صورة البروفايل تبدو جيدة. افحص الملفات الشخصية بعناية: متى تم إنشاؤها؟ هل لديها تاريخ من المنشورات العادية أم أنها في الغالب ترويجية؟ غالبًا ما تمتلك الروبوتات حسابات جديدة تمامًا أو نسب متابَعة/مُتابَعَة غريبة. على Telegram/Discord، عدل إعدادات الخصوصية لديك حتى لا تسمح بالرسائل من الأعضاء الذين لا تشاركهم مجموعة، أو على الأقل كن حذرًا من أي شخص يرسل لك رسائل غير معتادة. نادرًا ما يتواصل الدعم الرسمي عبر الرسائل الخاصة أولاً. Here is the translated version following your instructions:

محتوى: ستُرفض ذلك من قبل مؤسسة موثوقة. كـمستهلكين، قد نرى أيضًا أدوات جديدة تظهر (ربما قائمة على الذكاء الصنعي) لنتمكن من التحقق من المحتوى – على سبيل المثال، الإضافات التصفحية التي يمكنها تمييز النصوص المنشأة بالذكاء الصنعي أو مقاطع الفيديو المزيفة بصورة عميقة. البقاء مطلعًا على هذه التقنية الوقائية واستخدامها سيساعد في وضع متساوٍ.

في نهاية المطاف، في سباق التسلح بالذكاء الصنعي، فإن اليقظة البشرية هي الأهم. من خلال إدراك أن الشخص في الجهة الأخرى قد لا يكون شخصًا فعلاً، يمكنك ضبط مستوى الثقة وفقًا لذلك. نحن ندخل فترة لا يمكنك حقًا فيها أخذ التفاعلات الرقمية بقيمتها الحرفية. على الرغم من أن ذلك مقلق، إلا أن الوعي به هو نصف المعركة. قد تكون الاحتيالات مؤتمتة، ولكن إذا أتمت الشك لديك في المقابل – بمعاملة كل طلب غير مرغوب فيه على أنه خبيث حتى يثبت العكس – فإنك تضطر حتى أذكى المخادعات بالذكاء الصنعي إلى تجاوز معيار عالٍ للغاية لخداعك.

9. كيف تتصدى السلطات والصناعة

ليس كل الأمور محبطة وسلبية – نفس تقنية الذكاء الصنعي التي تمكّن المحتالين يمكن تسخيرها لكشف ومنع الاحتيال، وهناك جهود متضافرة للقيام بذلك. شركات تحليل البلوكشين، وشركات الأمن السيبراني، ووكالات إنفاذ القانون يزداد اعتمادهم على الذكاء الصنعي والتعلم الآلي لمواجهة موجة الاحتيالات المشكوك فيها القائمة على الذكاء الاصطناعي. إنه ديناميكية كلاسيكية للقط والفأر. إليكم كيف يستجيب الأشخاص الطيبون:

  • الكشف عن الاحتيالات باستخدام الذكاء الصنعي: شركات مثل Chainalysis وTRM Labs قد دمجت الذكاء الصنعي في منصاتها المراقبة لاكتشاف الأنماط التي تشير إلى الاحتيال. على سبيل المثال، تقوم نماذج التعلم الآلي بتحليل النص من ملايين الرسائل لاكتشاف إشارات لغوية تشير إلى نصوص مولدة بالذكاء الصنعي أو هندسة اجتماعية. يتتبعون أيضًا السلوكيات على السلسلة – أشار تقرير إلى أن حوالي 60% من الإيداعات في محافظ الاحتيال تُعزى الآن إلى استخدام الذكاء الصنعي. من خلال تحديد المحافظ التي تدفع لخدمات الذكاء الصنعي أو تعرض أنماط معاملات مؤتمتة، يمكن للمحققين تمييز عمليات الاحتيال المحتملة مبكرًا. تستخدم بعض حلول مقاومة الاصطياد الرؤية بالذكاء الصنعي للتعرف على المواقع المزيفة (من خلال مسح لأخطاء بكسل في الشعارات أو اختلافات طفيفة في النطاقات) بشكل أسرع من المراجعات اليدوية.

  • تحسينات في المصادقة: في ضوء تعليقات ألتمان بأن الصوت والفيديو لا يمكن الوثوق بهما، تتحرك المؤسسات نحو مصادقة أقوى. قد تتحول المقاييس الحيوية إلى أمور مثل بصمات الأجهزة أو المقاييس الحيوية السلوكية (مثل كيفية كتابة أو تمرير) التي يصعب على الذكاء الصنعي تقليدها بشكل جماعي. يحث منظمو التداول والبنوك على تنفيذ تحقق متعدد العوامل وخارج النطاق للعمليات الكبيرة – على سبيل المثال، إذا طلبت سحب كبير للعملات الرقمية، ربما مكالمة فيديو مباشرة حيث يجب عليك أداء عمل عشوائي، مما يجعل الرد بشكل صحيح من قبل الذكاء الصنعي المزيف أكثر صعوبة. يناقش الاحتياطي الفيدرالي ووكالات أخرى المعايير للكشف عن محاولات انتحال شخصية باستخدام الذكاء الصنعي، مدفوعة بحالات مثل احتيال مدير المالي المزيف بقيمة 25 مليون دولار.

  • حملات التوعية: تدرك السلطات أن التعليم العام ضروري. أصدرت السلطات مثل FBI وEuropol تحذيرات وعقدت ندوات عبر الإنترنت لإعلام الناس بتكتيكات الاحتيال القائمة على الذكاء الصنعي. يشمل ذلك النصائح العملية (العديد منها قد انعكس في هذه المقالة) حول كيفية اكتشاف العيوب العميقة أو النصوص المكتوبة بالذكاء الصنعي التي تشبه الرسائل الاحتيالية. كلما عرف الناس ماذا ينتبهون إليه، قلّت فعالية الاحتيالات. تدرس بعض الجهات القضائية حتى إلزامية وضع علامات تحذير – على سبيل المثال، تتطلب الإعلانات السياسية الإفصاح عن المحتوى المنشأ بالذكاء الصنعي؛ يمكن لمثل هذه السياسات أن تمتد إلى الترويج المالي أيضًا.

  • إجراءات قانونية وسياسات: بينما تتقدم التكنولوجيا بسرعة، هناك حديث عن تشديد القوانين حول إساءة استخدام العيوب العميقة. لدى بعض الولايات الأمريكية قوانين ضد الصور العميقة المستخدمة في الانتخابات أو في انتحال شخص ما في جريمة، والتي يمكن تطبيقها في حالات الاحتيال. يبحث المنظمون أيضًا في مسؤولية مقدمي أدوات الذكاء الصنعي – إذا كان المنتج مثل WormGPT واضحًا في ارتكابه للجريمة، فهل يمكن مقاضاة مضمنيه أو مستخدميه؟ في المقابل، تعمل الشركات الرئيسية للذكاء الصنعي على وضع علامات مائية على المخرجات المنشأة باستخدام الذكاء الصنعي أقصد الماء الحي المعني هنا أو تقديم وسائل للتحقق من الأصالة (قد قامت OpenAI، على سبيل المثال، بدراسة وضع علامات مائية تشفيرية للنصوص الصادرة عن GPT). يمكن أن تساعد هذه التدابير في تمييز الحقيقي عن الذكاء الصنعي إذا تم تبنيها على نطاق واسع.

  • التعاون وتبادل المعلومات الاستخباراتية: أحد الآثار الجانبية الإيجابية هو أن تهديد احتيالات الذكاء الصنعي دفع إلى التعاون. تشارك منصات تداول العملات الرقمية، والبنوك، والمنصات التقنية، وإنفاذ القانون البيانات حول عناوين المحتالين، والتكتيكات المعروفة للعيوب العميقة، واذكاء الاصطياد. على سبيل المثال، إذا لاحظت منصة تداول حسابًا تم فتحه بمستندات مزورة محتملة، قد تُحذر الآخرين أو إنفاذ القانون، مما يمنع استخدام نفس الهوية في مكان آخر. بعد الحوادث الكبرى، تجري مجموعات الصناعة مراجعات ما بعد الحوادث لمعرفة كيفية استغلال الذكاء الصنعي ونشر استراتيجيات التخفيف.

  • دعم الضحايا والتدخل: الاعتراف بأن العديد من الضحايا يشعرون بالإحراج لدرجة كبيرة تمنعهم من الإبلاغ (تذكر، فقط حوالي 15% يبلغون عن الخسائر)، أصبحت بعض الوكالات استباقية. بالفعل حددت عملية Level Up عام 2024 التابعة لـFBI آلاف الضحايا المحتملين لأعمال الاحتيال بحصر الخنازير قبل أن يدركوا أنهم محتالون، من خلال تحليل التدفقات المالية، وتمكنت من منع خسائر مالية إضافية بمبلغ 285 مليون دولار عن طريق تحذيرهم في الوقت المناسب. بمعنى آخر، سمحت عمليات الكشف الأفضل بالتدخل في الوقت الفعلي. يمكن لمزيد من هذه المبادرات، وربما بدعم من الذكاء الصنعي، أن تنقذ الضحايا المتوقعين من خلال اكتشاف أنماط الاحتيال في مراحل مبكرة من الدورة (مثل، معاملات متكررة غير عادية إلى منصة زائفة).

في النهاية، سيحتاج التغلب على الاحتيالات المدعومة بالذكاء الصنعي إلى "يتطلب الأمر قرية": دفاعات التقنية، ومستخدمين مطلعين، وقوانين محدثة، وتعاون إنفاذ القانون العابر للحدود. في حين أثبت المحتالون براعتهم في دمج الذكاء الصنعي في سير عملهم، فإن تدابير المواجهة آخذة في التصاعد بالتوازي. إنها معركة مستمرة، لكنها ليست معركة خاسرة. بالبقاء مطلعين على التهديدات والحلول التي تظهر، يمكن لمجتمع العملات الرقمية التكيف. فكر في الأمر – نعم، المحتالون لديهم أدوات جديدة قوية، لكننا كذلك. يمكن للذكاء الصنعي المساعدة في البحث في كم هائل من البيانات للعثور على إبر في كومة قش (مثل تجميع الشبكات المحتالة أو اكتشاف المحتوى المزيف). ويمكن أن يساعد أيضًا في التعليم، من خلال محاكاة تدريبية مدعومة بالذكاء الصنعي تعلم الناس كيفية الاستجابة لمحاولات الاحتيال.

10. حماية نفسك: النقاط الرئيسية للبقاء آمنًا

بعد استكشاف العديد من الطرق التي يتم بها إساءة استخدام الذكاء الصنعي لسرقة العملة الرقمية، دعونا نستخلص بعض النصائح العملية للحماية. هذه هي العادات والاحتياطات التي يمكن أن تجعل منك هدفًا صعبًا حتى مع تطور الاحتيالات:

  • كن متشككًا في الاتصالات غير المطلبة: سواءً كانت مكالمة فيديو غير متوقعة من "صديق"، أو رسالة مباشرة تقدم المساعدة، أو بريد إلكتروني حول فرصة استثمارية، افترض أنها قد تكون احتيالاً. للأسف يجب علينا التفكير بهذه الطريقة، لكنها خط الدفاع الأول. عامل كل جهة اتصال جديدة أو طلب عاجل على أنه ربما خداعي حتى يتم التحقق منه من خلال قناة ثانوية.

  • تحقق من الهويات عبر قنوات متعددة: إذا تلقيت اتصالاً يُفترض أنه من شخص أو شركة معروفة، أكد ذلك باستخدام طريقة أخرى. اتصل بالشخص على رقم معروف، أو راسل الدعم الرسمي عبر البريد الإلكتروني الموجود في موقع الشركة. لا تعتمد على معلومات الاتصال المقدمة في الرسالة المشبوهة - ابحث عنها بشكل مستقل.

  • تمهل وافحص المحتوى بتأنٍ: يعتمد المحتالون (سواء كانوا بشراً أو ذكاءً صناعياً) على القبض عليك من دون انتباه. خذ لحظة لتحليل الرسائل ووسائل الإعلام. افحص علامات التلفيقات العميقة الدقيقة (تشوّهات بصرية غريبة، مشكلات تزامن الشفاه) ورسائل الخداع (مجالات بها أخطاء إملائية، طلبات غير طبيعية للحصول على بيانات اعتماد). إذا كان هناك شيء يبدو حتى بشكل طفيف "غير طبيعي" حول محتوى الرسالة أو صياغتها بالنسبة لمن يدعي أنها صادرة عنه، ثق في حدسك وتحرى الأمر بعمق.

  • استخدم إجراءات أمنية قوية: فعّل التحقق الثنائي على جميع حسابات العملة الرقمية والبريد الإلكتروني. فضل التطبيقات القائمة على التطبيقات أو الأجهزة بدلاً من الرسائل النصية إذا كان ذلك ممكنًا (إذ تُعتبر هجمات استغلال شرائح الإرسال خطرًا آخر). ضع في اعتبارك استخدام محفظة أجهزة لاحتياطيات كبيرة - حتى لو خدعك محتال، لا يمكنهم نقل الأموال دون الجهاز المادي. احرص على أن تكون أجهزتك مؤمنة مع تحديث البرامج ومكافحة الفيروسات، لحماية نفسك من أي برمجيات ضارة يمكن أن تتسلل.

  • احتفظ بالمعلومات الشخصية سرية: كلما قلت المعلومات التي يمكن للمحتالين الحصول عليها عنك عبر الإنترنت، قلت المواد التي يستطيع الذكاء الاصطناعي استغلالها. لا تشارك تفاصيل حساسة في المنتديات العامة (مثل البريد الإلكتروني، الهاتف، المعلومات المالية). كن حذرًا بشأن ما تنشره على وسائل التواصل الاجتماعي - قد يتم استخدام تلك التحديثات الشخصية الممتعة أو المقاطع الصوتية لاستهدافك بالذكاء الاصطناعي (مثال، تدريب استنساخ صوتي). تحقق أيضًا من إعدادات الخصوصية للحد من من يستطيع إرسال الرسائل إليك أو رؤية محتواك.

  • تثقف واطلع الآخرين: ابقَ مطلعًا على أحدث اتجاهات الاحتيال. اقرأ عن التقنيات الجديدة للتلفيقات العميقة أو الاستراتيجيات الخداعية حتى تتمكن من اكتشافها. شارك هذه المعرفة مع الأصدقاء والعائلة، لا سيما من ليسوا على دراية بالتكنولوجيا، والذين قد يكونون عرضة أكبر للخطر. على سبيل المثال، اشرح للأقارب الأكبر سنًا أن الذكاء الصنعي يمكن أن يزور الأصوات الآن، لذلك يجب عليهم دائمًا التحقق من المكالمات الطارئة. امنح كل من حولك القوة على اليقظة.

  • استخدم المصادر الموثوقة والتطبيقات الرسمية: عند إدارة العملات الرقمية، التزم بالتطبيقات والمواقع الرسمية فقط. لا تتبع الروابط المرسلة إليك – اكتب عنوان الموقع بنفسك يدويًا. إذا كنت تستكشف مشاريع أو روبوتات جديدة، تأكد من مصداقيتها من خلال البحث العميق (ابحث عن المراجعات، أخبار، خلفية الفريق). قم بتنزيل البرمجيات من المتاجر الرسمية أو موقع المشروع نفسه، وليس من روابط عشوائية أو ملفات مرسلة إليك.

  • استفد من أدوات الحماية: فكر في استخدام ملحقات المتصفح أو الخدمات التي تمنع الوصول إلى المواقع المعروفة بالخداع الإلكتروني. ستنبهك بعض مديري كلمات المرور إذا كنت على نطاق غير معروف لا يتطابق مع الموقع المحفوظ. أيضا مزودي البريد الإلكتروني يستخدمون مزيد من الذكاء الصنعي لاكتشاف الرسائل المحتمل أنها احتيالية – استمع إلى تلك التحذيرات. هناك أيضًا أدوات جديدة للكشف عن التلفيقات العميقة (لصور/فيديوهات)؛ على الرغم من أنها ليست مضمونة، إلا أنها يمكن أن توفر طبقة إضافية من الحماية إذا قمت بفحص فيديو مشبوه من خلالها.

  • الثقة ولكن بتحفظ - أو الأفضل، عدم الثقة مطلقًا: في العملات الرقمية، يمكن لدرجة صحية من البارانويا أن تحمي أصولك.شريك أعمال جديد)، قم بإجراء العناية الواجبة تمامًا وربما حتى أصر على اجتماع شخصي مباشر للمعاملات الكبيرة. عندما يتعلق الأمر بأموالك، لا بأس من التحقق من كل شيء مرتين. كما يقول المثل، "لا تثق، تحقق" - كان ذلك في الأصل عن معاملات البلوكشين، وينطبق الآن على الاتصالات أيضًا.

  • أبلغ واطلب المساعدة إذا تم استهدافك: إذا واجهت محاولة احتيال، قم بالإبلاغ عنها إلى المنصات (فهي تتخذ إجراءات لإزالة الحسابات الخبيثة) وإلى مواقع مثل Chainabuse أو مواقع الاحتيال الحكومية. يساعد ذلك المجتمع ويمكن أن يساعد في التحقيقات. وإذا كنت ضحية للأسف، فاتصل بالسلطات فورًا - على الرغم من أن الاسترداد صعب، إلا أن الإبلاغ المبكر يحسن الفرص. بالإضافة إلى ذلك، يمكن أن توفر قضيتك معلومات قيمة لمنع الآخرين من التعرض للاحتيال.

في الختام، فإن صعود عمليات الاحتيال المشغلة بالذكاء الاصطناعي هو تحدٍ جدي لكن ليس لا يمكن التغلب عليه. من خلال معرفة كتاب قواعد العدو - التزييف العميق، استنساخ الصوت، روبوتات الدردشة بالذكاء الاصطناعي، استثمارات الذكاء الاصطناعي الوهمية، وأكثر - يمكنك توقع حركاتهم وتجنب الفخاخ. ستواصل التقنية التقدم على كلا الجانبين. اليوم الأمر يتعلق بمقاطع الفيديو العميقة ورسائل البريد الإلكتروني المكتوبة بواسطة GPT؛ وغدًا قد تكون خدائع أكثر تعقيدًا. ومع ذلك، في الأساس، ما زالت معظم الحيل تدفعك للقيام بشيء ضد مصلحتك - إرسال الأموال، كشف سر، تجاوز الحمايات. هذه إشارتك للتوقف وتطبيق المعرفة التي اكتسبتها. كن يقظًا، كن مطلعاً، ويمكنك التغلب حتى على أذكى عمليات الاحتيال المدبرة بواسطة الآلات. دفاعك الأقوى هو في النهاية تفكيرك النقدي الخاص. في عالم من المزيفات الاصطناعية، الشك الحقيقي هو ذهب.

إخلاء المسؤولية: المعلومات المقدمة في هذه المقالة هي لأغراض تعليمية فقط ولا ينبغي اعتبارها نصيحة مالية أو قانونية. قم دائمًا بإجراء بحثك الخاص أو استشر محترفًا عند التعامل مع أصول العملات المشفرة.
أحدث مقالات البحث
عرض جميع مقالات البحث
مقالات بحث ذات صلة