일반적인 암호화폐 투자자는 인공지능을 사용한 사기꾼으로부터 새로운 위협에 직면해 있습니다. AI에 의해 가능해진 암호화폐 사기는 지난 해에 폭발적으로 증가– 2024년 중반과 2025년 중반 사이 생성형 AI 보조 사기에 대한 보고가 456% 증가했습니다.
사기꾼들은 이제 AI를 사용하여 실제 같은 가짜 비디오, 목소리 및 메시지를 만들어 그들의 암호화폐 사기를 더욱 설득력 있고 감지하기 어렵게 만듭니다. FBI에 따르면 2024년에 암호화폐 관련 사기 불만 사항이 거의 15만 건이 접수되었으며, 미국에서만 39억 달러가 넘는 손실이 보고되었습니다. 전 세계적으로 암호화폐 사기로 인한 손실은 2024년 107억 달러를 초과했으며, 이는 피해자의 추정치인 15%만 보고했기 때문에 빙산의 일각일 수도 있습니다.
OpenAI의 CEO인 샘 알트만조차도 AI의 인간 모방 능력이 "대부분의 인증 방법을 완전히 무력화했다"고 경고했습니다. 이 기사에서는 업계를 괴롭히는 AI 주도 암호화폐 사기 상위 10가지를 파헤쳐 실제 사례를 통해 그들이 어떻게 작용하며 중요한 방법을 보여주며, 여러분이 자신을 보호할 수 있는 방법에 대해 알아보겠습니다.
차트: AI 도구를 활용한 암호화폐 사기 거래의 비중은 2021년 이후 급증했으며, 2025년의 모든 사기 예치 주소의 약 60%가 AI 지원 계획과 연결되어 있습니다. 이는 나쁜 행위자들이 AI를 얼마나 빨리 채택하여 사기를 대규모로 확장했는지를 반영합니다.
1. 딥페이크 셀럽 지지 사기 (가짜 비디오 & 스트림)
가장 널리 퍼진 AI 활성화 암호화폐 사기 중 하나는 유명 인물의 딥페이크를 통해 사립 협력을 홍보하는 것입니다. 범죄자들은 엘론 머스크 같은 유명 기술 및 암호화폐 인물을 모방하여 가짜 인센티브나 투자 플랫폼을 광고하는 비디오를 만드는데, 진실은 AI가 조작한 영상과 오디오이며, 실제로 그들이 그런 주장을 한 적이 없다는 것입니다. 참여자가 보상 기대로 암호화폐를 광고된 주소로 보내면, 그들은 단순히 도난 당한 것입니다.
이러한 사기 수법은 초기 암호화폐 기획 사기 중에서 실제 인터뷰 클립을 사용하던 것의 발전 형태입니다. 지금 딥페이크 기술을 통해 새로운 오디오/비디오 콘텐츠가 삽입되어 유명 인물이 그들의 사기 사이트를 직접 지지하는 것처럼 보이게 만듭니다. 이러한 가짜 라이브 스트림은 첫눈에 매우 설득력 있습니다. Chainabuse(공공 사기 보고 사이트)는 2024년 중반에 엘론 머스크의 딥페이크 스트림이 어떻게 몇 분 만에 여러 피해자를 유도했고, 범죄자에게 상당한 자금을 제공했는지를 보고했습니다. 블록체인 분석에 따르면 해당 사기 주소는 2024년 3월부터 2025년 1월 사이 피해자로부터 500만 달러 이상을 받았으며, "AI 거래 플랫폼"을 선전하는 또 다른 딥페이크 머스크 계획이 330만 달러 이상을 가져갔습니다. 사이버 보안 기업 센시티의 연구에 따르면 머스크는 투자 사기에서 가장 흔하게 딥페이크된 유명인사이며, 이는 그가 종종 암호화폐에 대해 이야기하기 때문에 그의 이미지가 신뢰를 준다는 것을 보여줍니다.
상황을 더욱 악화시키는 것은 이제 실시간 비디오 통화에서도 가짜 얼굴을 사용할 수 있게 된 딥페이크 기술입니다. 이는 사기꾼이 줌 통화에서 다른 사람으로 보일 수 있다는 것을 의미합니다. 한 인상적인 경우, 범죄자들은 AI 얼굴 변경을 사용해 회사의 CFO와 동료로 부당하게 가장하여 직원에게 사기꾼에게 2,500만 달러를 송금하게 했습니다. 딥페이크된 경영진은 현실적이고 설득력 있어 보였습고, 이는 어느 조직에서든 악몽 같은 시나리오입니다. OpenAI의 샘 알트만은 "음성 또는 비디오 딥페이크가 현실과 구별되지 않는 수준에 다가가고 있다"고 말했습니다. 일반적인 암호화폐 투자자에게 신뢰할 만한 인물의 딥페이크 영상이 무엇보다도 설득력 있을 수 있습니다.
이러한 사기를 발견하고 피하는 방법: 심지어 유명 인사가 출연해도 "너무 좋아서 사실이 아닐" 암호화폐 프로모션에 대해 극도로 회의적이어야 합니다. 비디오를 자세히 살펴보세요 – 딥페이크는 부자연스러운 눈 깜박임, 이상한 입 움직임, 혹은 얼굴 주변 불일치하는 조명과 같은 미세한 결점이 있을 수 있습니다. 부자연스러운 음성 리듬이나 오디오 왜곡을 들어보세요. 잘 알려진 사람이 갑자기 보장된 수익 또는 기부금을 약속한다면(특히 라이브 스트림에서 암호화폐를 보내달라고 요청하는 경우), 사기일 가능성이 큽니다. 공식 소스를 크로스체크하세요; 예를 들어, 엘론 머스크는 반복적으로 그가 암호화폐 기부금을 하지 않는다고 공표합니다. 영상에서 무작위로 주소로 자금을 보내지 마세요. 의심스러울 때 일시정지 하세요 – 사기꾼들은 흥분과 긴급성에 의지합니다. 프로모션이 실제로 정확한지 공식 채널이나 뉴스 매체를 통해 독립적으로 확인하는 데 시간을 할애함으로써 이러한 딥페이크 추천 함정에 빠지는 것을 피할 수 있습니다.
2. 딥페이크 음성 및 비디오를 통한 가장사기(임원 또는 사랑하는 사람)
AI 딥페이크는 유명한 억만장자에게만 한정된 것이 아닙니다 – 사기꾼들은 또한 그들이 알고 있는 사람이나 신뢰하는 권위 인물을 가장하여 개인적 상황에서 피해자를 속이기 위해 사용합니다. 이러한 계획에서 범죄자들은 AI 생성 음성 클론과 비디오 아바타를 사용하여 보다 개인화된 컨텍스트에서 피해자를 속이려 합니다. 충격적인 변종 중 하나는 "가족의 위급 통화" 사기입니다. 피해자가 전화를 받게 되고 예를 들어 손자나 배우자의 목소리가 긴급한 문제로 금전을 요청합니다(자주 암호화폐나 송금을 요구). 실제로는 진짜 가족이 전화를 건 것이 아니며, 사기꾼이 그들의 목소리(아마도 소셜 미디어 동영상에서)를 샘플하여 AI를 사용하여 스피치와 음색을 클론하고 피해자에게 전화를 건 것입니다. 이러한 음성 클로닝 사기는 감성에 호소하여 이미 전 세계적인 사람들이 속아 넘어갔습니다. 오늘날의 AI 도구로는 단 몇 초의 오디오 클립만으로 설득력 있는 클론을 만들 수 있습니다.
또 하나의 변형은 사업체와 투자자를 타깃으로 한 가짜 임원 또는 파트너를 사용한 것입니다. 앞서 언급했듯이, 2024년 초에 범죄자들은 세계적인 회사 Arup의 CFO를 가장하여 비디오 통화에 참전했으나, 이것이 유일한 사례는 아닙니다. 홍콩에서는 은행이 회사 지도자인 것처럼 들리는 인물을 신뢰하여 지시에 따라 수백만 달러를 사기 당하며 인식했습니다 – AI로 생성된 목소리였습니다. 우리는 또한 사기꾼들이 기성 스타트업 창립자 및 암호화폐 교환 책임자들의 정체성을 딥페이크하여 투자자나 고객과 비디오 채팅에서 접촉하여 사기성 전달을 승인하도록 만드는 경우도 보았습니다. 이러한 "CEO 가장" 딥페이크는 많은 비즈니스 상호작용이 온라인으로 이동한 사실을 악용합니다. 당신의 상사의 얼굴과 목소리가 Zoom 통화에 나타나면, 여러분은 그들을 신뢰할 수밖에 없습니다. 라이브 얼굴 교환 프로그램을 통해 실시간으로 사기자의 얼굴 위에 목표물의 얼굴을 덧씌워 진짜 그 사람이 말하고 있는 것처럼 보이게 합니다. 피해자는 이때 자금을 송금하거나 보안 코드를 공개하라는 지시를 받게 됩니다. 일부 회사는 돈이 사라지고 난 후에야 자신들이 속았다는 것을 깨달았습니다.
사기꾼들은 심지어 다양한 전략을 결합하여 긴 "그루밍" 사기를 만들고 있습니다: Pig butchering(장기 투자 사기, 섹션 3 참조) 그룹은 자신들의 페르소나가 실제임을 "증명"하기 위해 짧은 비디오 통화를 사용하기 시작했습니다. 매력적인 사람의 깊게 모델링된 이미지를 사용하여 희생자와 잠깐 비디오 채팅을 진행한 다음 문자로 속임수를 계속합니다. TRM Labs 연구원들은 사기 단체가 라이브 비디오 사기를 행하기 위해 AI 도구를 대여하는 딥페이크 서비스 지불 사례를 관찰했는데, 이는 주문형 딥페이크에 대한 성장하는 범죄 시장을 암시합니다. 한 사례에서, 사기 네트워크는 일부 암호화폐 수익을 AI 서비스에 투자하고 희생자로부터 6천만 달러 이상을 벌어들였으며, 딥페이크 기술에 대한 투자가 크게 보상되었다는 것을 시사합니다.
자신을 보호하는 방법: 핵심은 이차 채널을 통한 검증입니다. 예기치 않게 전화나 비디오 채팅이 와서 돈이나 민감한 정보를 요청하면, 지금 행동하지 마세요, 상관없습니다 그게 누구처럼 보이거나 들리든 간에. 전화를 끊고 그 사람이 알고 있는 번호로 다시 전화하거나 다른 연락처로 확인하세요. 예를 들어 "상사님"이 결제에 대해 메시지를 보내면 상사에게 직접 전화하거나 동료와 확인하여 확인하세요. 가족들은 비상 시 사용할 코드 단어를 설정할 수 있습니다 – 자녀를 가장해 전화를 걸어온 사람이 미리 정해 둔 코드를 모른다면, 그것이 사기임을 알 수 있습니다. 사람 얼굴이 약간 이상해 보이는(너무 부드러움, 이상한 눈이나 머리카락 세부 사항), 오디오가 약간 느리거나 로봇처럼 들릴 경우의 비디오 통화에 대해서도 조심해야 합니다. 화상/이메일을 통해 들어온 금융 지시는 항상 직접 대면하거나 신뢰할 수 있는 라인의 목소리로 다시 확인해야 합니다. Sam Altman이 강조한 바와 같이, 전통적인 인증 방법(예: 음성 인식)은 더 이상 신뢰할 수 없습니다. 암호화폐나 송금의 갑작스러운 긴급 요청은 극도로 의심스러워해야 합니다, 심지어 그것이 당신이 신뢰하는 사람의 "발신"으로 나서왔다고 해도 마찬가지입니다. 몇 분을 할애해 독립적으로 신원을 확인함으로써 딥페이크 사기에서 자신(또는 회사)을 보호할 수 있습니다.
3. AI-강화 로맨스 및 투자 스캠 ("돼지 잡기" 사기)
소위 돼지 잡기 사기 – 범죄자들이 온라인 관계를 구축한 후 희생자의 저축을 털어가는 장기 전략 – 는 AI 덕분에 훨씬 더 위험하게 되었습니다. 일반적인 돼지 잡기 상황(가장 흔히 사회 매체나 데이팅 앱을 통해 진행된 로맨스나 우정)에서 사기범들은 몇 주나 몇 달 동안 희생자의 신뢰를 얻기 위해 시간을 보냅니다. 그들은 결국 "훌륭한" 암호화폐 투자 기회를 소개하고 희생자가 돈을 쏟아붓도록 설득하며, 결국 모든 것이 가짜임을 밝혀냅니다. 이러한 연극은 사기꾼에게 노동 집약적이며 매일 대화하고 사랑하는 사람이나 멘토 역할을 신뢰성 있게 수행해야 함을 의미합니다. 현재 AI 챗봇 및 딥페이크는 이 과정을 강화하여 돼지 잡기 사기를 국가보다 한 개인에게 더 부과적인 범죄 활동으로 변경하였습니다.
사기 단체들은 AI 언어 모델(LLM)을 사용하여 목표옷들과의 통신 대다수를 처리하고 있습니다. ChatGPT와 같은 도구를 사용하여 – Skip translation for markdown links.
Content: 불법적인 “WormGPT”와 “FraudGPT”와 같은 무삭제 변형은 24/7 어느 언어로든 유창하고 매력적인 메시지를 생성할 수 있습니다. 이는 한 명의 사기꾼이 동시다발적으로 여러 명의 피해자를 관리할 수 있으며, AI가 개별화된 애정 있는 텍스트, 시장 분석 또는 필요한 모든 대본을 작성할 수 있음을 의미합니다. 사실 Sophos의 2023년 조사에 따르면 피그 부처링 그룹이 ChatGPT를 사용하여 채팅을 작성하기 시작한 것으로 밝혀졌습니다. 어떤 피해자는 심지어 AI 생성이었던 것을 우연히 드러내는 이상한 붙여넣기 메시지를 받기도 했습니다. 실수는 제외하더라도 LLM은 사기꾼이 피해자의 배경과 감정 상태에 완벽히 맞게 톤과 내용을 조정하여 접근 방식을 “하이퍼 개인화” 할 수 있도록 합니다. 부서진 영어나 복사-붙여넣기 대본의 시대는 끝났습니다. AI를 통해 텍스트는 진짜처럼 느껴지며, 결국에는 사기에 더욱 취약하게 만듭니다.
AI는 또한 이러한 사기의 언어 장벽을 허물고 있습니다. 원래, 많은 피그 부처링 조직이 동남아시아에 기반을 두고 중국어를 사용하는 피해자를 겨냥했습니다. 서구의 피해자로의 확장은 사기꾼의 약한 영어 능력으로 인해 제한되었습니다. 어색한 문법은 종종 경계 신호였습니다. 이제 LLM 기반 번역 및 작문을 통해 비원어민 화자가 영어, 독일어, 일본어 또는 수익성이 좋은 시장에서 매끄럽게 사기를 칠 수 있습니다. 사기꾼들은 들어오는 메시지를 AI에 전달하여 번역과 답변 생성이 가능하도록 하여 그들이 실제로 말하지 않는 언어로도 세계적인 투자자나 로맨틱한 파트너로 가장할 수 있습니다. 이는 목표 대상을 크게 확장했습니다. 유럽이나 북미의 잘 교육받은 전문가들이 어설픈 사기 메시지를 무시할 수도 있었으나, 이제 그들은 온라인에서 친해진 “매력적인 기업가”로부터 다듬어진, 완벽히 현지화된 서신을 받을 수 있습니다. 결과는? 더 많은 피해자가 결국 도축을 위해 살찌웁니다.
그리고 피그 부처링에서의 딥페이크도 잊지 말아야 합니다. 대부분의 구혼이 텍스트를 통해 이루어지지만, 사기꾼들은 때때로 의심을 덜기 위해 짧은 영상 통화를 예약합니다. 여기서 그들은 얼굴을 교체한 딥페이크 영상을 점점 더 많이 사용합니다. 예를 들어, 사기꾼은 여성을 고용하여 카메라에 나서게 하지만 AI를 사용하여 프로필에서 사용한 도난 당한 사진으로 그녀의 얼굴을 교체할 수 있습니다. 이 "생존 증명" 전략은 피해자에게 그들의 온라인 연인이 실제라는 확신을 줍니다. (일부 작업은 심지어 “실제 얼굴 모델” 설계를 광고하며, AI 필터의 도움으로 피해자의 꿈의 파트너처럼 비디오에 나타납니다.) 신뢰가 확보되면 사기꾼들은 피해자들을 가짜 암호화 플랫폼 또는 "유동성 마이닝" 프로그램에 투자하도록 유도하며 종종 더 큰 입금을 유도하기 위해 가짜 수익 스크린샷을 보여줍니다. 피해자들은 함께하는 삶의 환상이나 막대한 수익을 앞두고 401(k)를 다시 융통하거나 빼는 것으로 알려졌습니다. 이 얼마나 절망적인 상황입니까 – AI는 단지 기만을 확대할 뿐입니다.
피그 부처링 사기를 피하는 방법: 온라인 전용 관계 또는 부적절하게 강렬해지는 관계에 대해 건강한 회의론을 유지하십시오. 개인적으로 만난 적이 없는 사람이 암호 화폐에 투자하도록 안내하거나 재정 지원을 요청한다면, 이는 주목할만한 위험 신호입니다. 프로필 사진을 역 이미지 검색하여 도난 여부를 확인하세요 (많은 피그 부처링 사기꾼들이 모델이나 다른 피해자의 사진을 사용합니다). 상대방이 카메라를 제대로 보여주지 않거나 영상 통화의 화질이 이상하게 낮으면 조심하세요 – 딥페이크 이상 현상을 숨길 수 있습니다. 빠른 투자 압박이나 내부 지식 주장은 사기의 징후입니다. 또한, 합법적인 투자 전문가나 로맨틱한 파트너는 환상적인 이익을 보장하지 않음을 기억하십시오. FBI 및 기타 기관들은 피그 부처링과 암호화 로맨스 사기에 대해 공식 경고를 발령했습니다 – 이러한 사기 작동 방식을 교육하세요. 누군가가 사기꾼일 수 있다고 의심되면 연락을 끊고 그들에게 돈이나 암호화를 보내지 마세요. 그리고 타겟이 되었다면, (익명이 필요하다면) 이를 신고하여 당국이 이 조직들을 추적하는데 도움이 되도록 하세요. 인식이 최고의 방어입니다, 그래서 아무리 매끈한 AI 주도된 감정에 휩쓸리더라도, 함정에 빠지지 않습니다.
4. AI 작성 피싱 이메일 및 메시지 (확장된 지능형 사기)
피싱 – 사기성 이메일 또는 메시지로 악성 링크를 클릭하게 하거나 민감한 정보를 제출하게 만드는 방식 – 는 오랫동안 숫자 게임이었습니다. 사기꾼들은 대량으로 일반적인 메시지 ("귀하의 계정이 위험에 처해 있습니다, 여기 로그인하세요...")를 발송하여 몇몇 사람들이 미끼를 물게 하는 것이 목표였습니다. 이제 AI가 피싱을 훨씬 더 설득력 있고 표적화하도록 만들고 있습니다. 생성 언어 모델과 같은 도구를 사용하여 공격자들은 진짜 의사소통 스타일을 흉내내는 인격화된 유창한 메시지를 쉽게 작성할 수 있으며, 성공률을 크게 높입니다.
*Large Language Models (LLMs)*는 은행, 암호 화폐 거래소, 친구로부터 온 진짜 이메일과 거의 구별되지 않는 피싱 미끼를 생성할 수 있습니다. 구문 오류 및 어색한 표현을 제거하여 과거의 사기를 종종 폭로하곤 했습니다. 예를 들어 AI는 "[귀하의 암호 화폐 거래소] 보안"에서 철회 경고 이메일을 작성하라는 지시를 받을 수 있으며, 귀하의 계정을 "안전하게" 보호하는 링크를 제공합니다. 텍스트는 정교하고 브랜드에 맞게 작성됩니다. 사기꾼들은 또한 AI를 사용하여 소셜 미디어를 스캔하고 메시지를 정확히 맞춤화하여 – 최근 거래를 참조하거나 친구 이름을 사용하여 – 스피어 피싱으로 잘 알려진 기술을 사용합니다. 이러한 수준의 맞춤화는 상당한 노력이 필요로 했지만, AI 에이전트가 공개 데이터를 긁어내어 몇 초 만에 동일한 작업을 수행할 수 있습니다.
심지어 사이버 범죄에 명시적으로 구축된 지하 AI 도구도 있습니다. ChatGPT와 같은 공공 모델에는 불법적인 사용에 대한 필터가 있기 때문에, 범죄자들은 제한이 없는 블랙마켓 LLM인 “WormGPT” 및 “FraudGPT”를 개발하거나 구입했습니다. 다크 웹 포럼에서 제공되는 이 악성 AI는 설득력 있는 피싱 이메일, 악성 코드 작성, 심지어 사기에 대한 단계별 조언도 출력할 수 있습니다. 간단한 프롬프트로 영어 능력이 제한된 사기꾼도 거의 완벽한 이메일을 어떤 언어로든 작성할 수 있으며, 전체 피싱 사이트의 텍스트 콘텐츠를 생성할 수 있습니다. 사이버 보안 교육 회사 KnowBe4에 따르면, 2024년까지 분석한 피싱 이메일 중 거의 74%가 AI 사용의 징후를 보여줬습니다 – 즉, 대부분의 피싱 시도가 이제 AI의 작문 능력에 의해 강화되고 있습니다.
이메일 외에도 AI 챗봇은 메시징 플랫폼에 위협을 가합니다. 사기꾼들은 Telegram, Discord, WhatsApp 등에서 봇을 배포하여 실시간으로 사용자를 유혹할 수 있습니다. 예를 들어, 암호화 지갑 문제에 대해 트윗하면 즉시 “지원 담당자” (실제는 봇)가 답글을 달 수 있습니다. 그런 다음 AI는 고객 서비스 역할을 하며 가짜 “인증”을 통해 키를 훔치도록 안내합니다. 봇이 자연스럽게 질문에 이해하고 응답하기 때문에 당신은 그것이 가짜라는 것을 알아채기 어렵습니다. 이러한 AI 주도된 사회 공학은 심지어 기술적으로 숙련된 사용자들도 속일 수 있습니다. 한 사례에서는 사기꾼들이 사용자들에게 암호화 거래를 돕겠다고 약속하는 사기성 “투자 콘텐츠: 수익을 창출합니다. 따라서, 고급 알고리즘을 통해 보장된 수익을 약속하는 AI 기반의 가짜 거래 봇, 신호 그룹 또는 DeFi 플랫폼을 만들어내지만, 실제로는 모두 허상에 불과합니다.
일반적인 속임수 중 하나는 "AI 거래 봇" 사기입니다: Telegram이나 Reddit을 통해 AI를 활용하여 엄청난 수익을 올릴 것이라고 주장하는 봇을 사용하라는 초대를 받습니다. 이 봇은 시뮬레이션 결과나 테스트 계정에서 몇 가지 수익성 있는 거래를 하는 데모를 보여줄 수 있습니다. 그러나 자신의 자금을 입금하고 나면 봇이 손실을 내기 시작하거나 사기꾼들이 돈과 함께 사라집니다. 다른 경우, 사기꾼들은 "AI 투자 펀드"나 마이닝 풀을 광고합니다 – 마케팅 유행어인 "독점 AI 기반 전략"에 현혹되어 암호 화폐를 그들에게 보내 투자하도록 유도하는 방식입니다 – 그러나 이는 폰지 사기입니다. 초기 "투자자"는 작동을 입증하기 위해 약간의 돈을 되돌려 받을 수도 있지만, 결국 운영자들은 자금의 대부분을 가지고 사라지며, 세련된 웹사이트와 책임소재는 남기지 않습니다.
2023–2024년 ChatGPT의 열풍 동안, AI 관련성을 주장하는 수많은 새로운 암호화폐 토큰과 플랫폼이 등장했습니다. 일부는 합법적인 프로젝트였지만, 많은 경우 명백한 사기나 펌프 앤 덤프 계획이었습니다. 사기꾼들은 AI 개발과 연관된 토큰을 발표하고, 흥분한 투자자들로부터 자금이 몰리게 한 후 프로젝트를 포기했습니다 (전형적인 러그풀). AI라는 개념 만으로도 토큰의 가치를 인위적으로 부풀리는데 충분했습니다. 또한, 다양한 가짜 뉴스가 무기로 사용되었습니다: 앞서 언급한 것과 같이, Elon Musk 등 유명인들의 딥페이크 비디오를 사용하여 "AI 암호화폐 거래 플랫폼"을 지지한다고 설득하고 피해자들이 투자하도록 유도했습니다. 예를 들어, 한 딥페이크 영상은 AI를 사용해 거래 수익을 보장한다고 주장하며 사람들에게 투자할 것을 권장했습니다 – 그런 것은 전혀 존재하지 않았습니다. 이러한 계획들은 종종 유명 인사에 대한 신뢰와 AI 기술의 신비함을 결합하여 신뢰성을 높이려고 합니다.
사기꾼들이 AI에 관해 거짓말만 하는 것은 아닙니다, 일부는 실제로 AI를 사용하여 환상을 강화합니다. TRM Labs는 2024년 MetaMax라는 주요 피라미드 계획을 확인했는데, 이는 소셜 미디어 콘텐츠에 참여하면 높은 수익을 제공한다고 주장했습니다. MetaMax의 웹사이트는 합법적으로 보이기 위해 CEO와 팀을 보여주었지만, "CEO"는 딥페이크 기술로 만든 AI 생성 아바타일 뿐이었습니다. 즉, 실제 사람은 없고, 그저 AI 이미지와 아마도 AI 목소리가 투자자들에게 MetaMax가 다음 대박이라고 보증했습니다. 이 계획은 붕괴되기 전에 필리핀의 피해자들로부터 약 2억 달러를 끌어모으는 데 성공했습니다. 또 다른 사기 사이트인 babit.cc는 실제 인물의 도용 사진 대신 AI를 통해 전체 직원 프로필을 생성하기에 이르렀습니다. 이러한 이미지에서 약간의 불가사의한 완벽함을 느낄 수 있을지 몰라도 AI로 생성된 얼굴들이 점점 더 실물에 가까워지고 있습니다. 미래의 사기 사이트가 존재하지 않는 것이지만 마치 진짜인 것처럼 보이는 경영진으로 가득 찰 수 있다는 것을 쉽게 알 수 있습니다.
AI 테마의 투자 사기를 피하는 방법: AI 기능을 과대하게 마케팅하지만 명확한 세부 정보가 없는 "너무 좋아서 믿기 어려운" 투자 기회를 신중히 접근하십시오. 자체 조사를 수행하세요: 프로젝트가 AI를 사용한다고 주장하는 경우, 합법적인 문서나 경험 있는 팀이 있는지 확인하세요? 창립자에 대한 검증 가능한 정보를 찾을 수 없거나 제공된 정보가 AI로 생성된 프로필이라면 조심하세요. 암호화폐 분야에서 유명 인사의 추천을 신뢰하지 마세요. 99%의 경우, Musk, CZ, 또는 Vitalik과 같은 인물들이 무작위로 거래 조언을 하거나 자금을 두 배로 늘려주는 제안을 하는 일이 없습니다. AI 거래 봇이 훌륭하다면, 창조자들이 왜 저렴하게 접근권을 판매하거나 Telegram에서 마케팅하는지 물어보세요 – 그들이 왜 그것을 비슷하게 사용하여 부유해지려 하지 않는지 물어보십시오. 이러한 논리 검사는 종종 사기를 드러냅니다. 또한, 보장된 수익 = 주의 신호임을 기억하세요. 아무리 고급 알고리즘이어도 암호화폐 시장에는 위험이 존재합니다. 적법한 회사는 위험에 대해 명확히 설명하고 고정된 높은 수익을 약속하지 않을 것입니다. 투자자로서, 사기꾼들이 좋아하는 유행어 – "AI 기반, 양자, 보장, 비밀 알고리즘" – 가 그들의 미끼라는 것을 고려하세요. 알려진 거래소와 플랫폼에 집착하세요, 그리고 새 프로젝트에 끌리면 독립적인 검증 후에 당신이 감당할 수 있는 만큼만 투자하세요. 의심스러울 때, 커뮤니티의 신뢰할 수 있는 목소리에게 의견을 구하세요. 종종, 포럼이나 Reddit에 "XYZ AI 봇에 대해 들어본 적 있나요?" 라고 간단히 게시하면 그게 사기라면 경고가 나타납니다. 요컨대, AI의 돌파구에 대한 FOMO(기회 손실에 대한 두려움) 가 판단력을 흐리지 않게하세요 – 이러한 사기에서 "자동화되는" 유일한 것은 당신의 돈의 도난입니다.
6. AI를 이용한 합성 신원 및 KYC 우회
암호화폐 사기는 종종 위조 신원의 망을 포함합니다 – 피해자를 가장하는 사람들뿐만 아니라 사기꾼들이 사용하는 계정과 주체들도 그렇습니다. AI는 이제 사기꾼들이 즉석에서 전체 합성 신원을 생성하여 침입자를 걸러내기 위한 검증 조치를 우회할 수 있게 합니다. 이는 두 가지 주요한 영향을 미칩니다: (1) 사기꾼들이 가짜 이름으로 더 쉽게 거래소나 서비스 계정을 개설할 수 있습니다, 그리고 (2) 그들의 사기 웹사이트에 AI로 생성된 "팀원" 이나 이용후기등을 채워 넣어 합법성을 부여할 수 있습니다.
규제 준수 측면에서, 많은 암호화폐 플랫폼은 KYC (고객 신원 확인) 확인이 필요합니다. – 예를 들어, 사진 ID와 셀카를 업로드 하도록 요구합니다. 이에 대응해, 범죄자들은 가짜 ID와 조작된 셀카를 생성하여 이러한 확인을 통과하기 위해 AI 도구를 사용하기 시작했습니다. 일반적인 접근 방식은 AI 이미지 생성기나 딥페이크 기술을 사용하여 실제 ID의 요소를 결합하거나 도용한 ID에 맞는 인물의 외모를 합성하는 방법입니다. 최근 Decrypt에 소개된 일화에서는 초보적인 AI를 사용하여 가짜 운전면허 이미지를 생성해 거래소와 은행을 속이는 사례가 있었습니다. 바이오메트릭 인증조차 안전하지 않습니다: AI는 시스템이 요구하는 동작을 수행하는 사람의 실제 감각 비디오를 출력할 수 있습니다. 본질적으로, 사기꾼은 컴퓨터 앞에 앉아 AI를 사용해 가상의 인물을 조작하여 계정을 개설할 수 있습니다. 이러한 계정은 도난당한 암호화폐를 세탁하거나 사기 플랫폼을 설정하는 데 사용됩니다. 수사관들이 "존 도우"가 수백만 달러를 인출한 것이 실재하지 않다는 것을 깨닫고 나면, 흔적은 이미 사라져 있습니다.
또한 사기를 홍보하는 과정에서, 가짜 "검증된" 신원이 도움이 됩니다. 우리는 5장에서는 AI로 생성된 CEO에 대해 언급했는데, 이는 더 광범위한 트렌드의 일부입니다. 사기꾼들은 없는 직원들로 링크드인을 채워넣고 (AI로 생성된 프로필 사진과 자동 생성된 이력서를 사용하여), GAN으로 생성된 프로필 사진으로 가짜 사용자 리뷰를 만들고, 가짜 고객 지원 요원까지 생성할 수 있습니다. 일부 피해자들은 피싱 사이트의 팝업 채팅을 통해 거래소 지원담당자와 대화하는 것으로 생각했지만, 사실 그것은 가상의 인물로 지원받는 AI 봇일 가능성이 높습니다. ThisPersonDoesNotExist(랜덤한 사실적인 얼굴을 생성하는 AI 도구)는 사기꾼들에게 큰 도움이 됩니다 - 사기 계정이나 프로필이 플래그 지정될 때마다, 그들은 다음 번을 위해 새로운 고유 얼굴을 생성하여 스팸 필터가 따라잡기 어렵게 합니다.
스템생한 일반 사용자들을 대상으로 하는 사기 외에도, AI를 활용한 신원 사기는 범죄를 용이하게 하고 있습니다. 조직범죄단들은 딥페이크를 사용하여 은행의 비디오-KYC 절차를 속이고, 이를 통해 수송책 계정이나 가짜 신원으로 현금화할 수 있는 exchange 계정을 개설할 수 있습니다. Europol은 한 사례에서 AI를 사용해 은행의 음성 인증 시스템을 우회하여 계좌 소유자의 목소리를 흉내내는 범죄자들이 보고됐다고 언급했습니다. 법 집행 기관은 이제 암호화폐 사기 자금이 이러한 AI "신원 키트"를 구매하는 데 사용된다는 증거를 보고 있습니다. TRM Labs는 돼지 도살기 사기 피해자들로부터 AI 서비스 제공업체로 흘러가는 암호화폐를 추적했으며, 이는 아마도 딥페이크나 가짜 ID 도구를 구매하기 위한 것입니다. 이는 완전한 범죄 생태계입니다: 가짜 신원을 구매하고, 이를 사용해 사기 인프라를 구축하며, 돈을 훔치고, 또 다른 가짜 ID와 함께 개설한 계정을 통해 자금을 세탁합니다.
합성 신원 사기에 방어하는 방법: 개별 사용자로서, 이것은 직접적으로 적발될 사항보다는 사진이나 "서류"가 위조될 수 있다는 것을 인식하는 문제입니다. 새로운 암호화폐 플랫폼이나 서비스를 다룰 때, 일부 실사를 수행하세요: 팀이 실제인지 검증할 수 있는지? 금융 자문가와 비디오 통화를 할 때 뭔가 이상하다면 (예: 약간의 얼굴 틀림), 그들이 주장하는 사람이 아닐 수 있음을 고려하세요. 기업으로서는 KYC와 사기 감지를 강화해야 합니다 – 예를 들어, AI로 AI를 싸워야 한다면, ID 사진이 생성된 것인지, 셀카가 딥페이크인지 감지하는 알고리즘을 사용하는 것입니다. 사용자로서의 실질적인 팁은 자신의 신원 데이터를 보호하는 것입니다. 사기꾼들은 온라인에서 발견한 당신에 대한 정보로 딥페이크 모델을 훈련할 수 있습니다. 어떤 정보를 공유해야 할지 제한하는 것이 (예: 가능한 한 공개적으로 자신에 대한 영상을 게시하지 않고, 프로필을 비공개로 유지) 나쁜 행위자들이 사용할 수 있는 원재료를 줄일 수 있습니다. 또한, ID 확인 이상의 보안 조치를 활성화하고 요구하세요 – 예를 들어, 일부 은행은 비디오에서 무작위 문구를 확인하도록 요구할 것입니다 (딥페이크가 실시간으로 하기 어려운 것이지만 불가능하지 않습니다). 궁극적으로, Altman은 신분 인증 방식이 발전해야 한다고 제안합니다. 다계층적이고 지속적인 인증 (단지 스냅샷 하나에 그치지 않는) 이 더 안전합니다. 현재로서는, 소비자로서 강력한 보안을 갖춘 서비스를 선호하고, 개인 문서나 정보를 요구하는 경우 확실한 논리가 없다면 회의적으로 접근하세요. 자신이 가짜 계정이나 프로필이라 의심되는 경우 (예: 암호화폐 투자에 대해 연락을 받는 새로 만들어진 사회적 프로필), 주의를 기울이고 쪽을 빼세요. 가능성을 줄여 사기꾼들이 합성 신원으로 당신을 속이는 기회를 줄입니다.
7. AI 기반 소셜 미디어 봇 및 사칭자
암호화폐 사기꾼들은 오래전부터 소셜 미디어에서 활동해왔습니다. Twitter와 Facebook에서부터 Telegram과 Discord까지. 이제 AI는 이 사기를 돕는 봇과 가짜 계정을 강화하여 더 효과적이고 실사용자와 구분하기 어렵게 만들었습니다.Translate the content without altering markdown links.
지원”을 제공하거나 매력적인 사람들로부터 무작위로 친구 요청을 받은 적이 있다면, 이 문제를 겪었을 가능성이 큽니다. AI를 이용하면 사기꾼들은 이제 더욱 그럴듯한 봇의 군대를 배포할 수 있습니다.
첫째, 생성 AI는 각 봇에게 고유한 “개성”을 부여합니다. 이전에는 1,000개의 봇이 모두 동일한 파손된 영어로 기부 이벤트에 관한 댓글을 게시했지만, 이제는 각 봇이 독특하고 일관된 게시물을 작성하여 스크립트를 유지하면서도 명백한 중복을 피할 수 있습니다. 그들은 심지어 대화에 참여할 수 있습니다. 예를 들어, 암호화 포럼이나 텔레그램 그룹에서 AI 봇은 자연스럽게 녹아들어 시장이나 최신 NFT에 대해 일상적인 대화를 나누고 커뮤니티 안에서 신뢰를 쌓습니다. 그리고 나서, 누군가에게 "대단한 기회" 또는 피싱 링크를 DM으로 보내면, 그것을 몇 주 동안 그룹에서 "정상적인" 계정으로 보았기 때문에 덜 의심합니다. AI는 이러한 봇에 대한 현실적인 프로필 사진도 생성할 수 있습니다(GANs 또는 유사한 것을 사용하여), 따라서 도난 당한 사진을 포착하기 위해 역 이미지 검색을 할 수 없습니다. 오늘날 많은 사기 트위터 계정은 매력적이고 친근한 외모의 사람들을 묘사하는 AI 생성 프로필 사진을 보유하고 있으며, 초기 AI 이미지에서 나타났던 미세한 결점도 전혀 없습니다. 심지어 바이오와 게시물도 진짜처럼 보이도록 AI가 작성합니다.
합법적인 계정 사칭은 또 다른 AI의 도움을 받는 영역입니다. 우리가 딥페이크 비디오/음성 사칭에 대해 언급했지만, 텍스트 기반 플랫폼에서는 사기범이 유명 인사 또는 지원 데스크의 프로필을 복사할 수 있습니다. AI는 빠르게 유사한 계정을 대량으로 생성하는 것을 도울 수 있으며(예를 들어 약간 잘못 철자된 핸들) 공식 계정의 톤에 맞춘 콘텐츠를 생성할 수 있습니다. 피해자들이 이러한 가짜 지원 계정에 메시지를 보내면, AI 채팅봇이 "확인" 절차를 안내하며 실제로는 정보를 훔칩니다. 이러한 형태의 대화형 피싱은 AI를 사용하면 훨씬 쉽게 확장할 수 있습니다. 알려진 한 사기 사건에서는 Discord 커뮤니티의 사용자들이 에어드랍을 청구하는 데 도움을 제공한다고 가장하는 관리자처럼 보이는 사람에게 개인 메시지를 받았고, 아마도 AI가 이러한 대화를 컨트롤하여 사용자를 그들의 지갑을 연결하는 함정으로 안내했을 것입니다. Chainalysis는 AI 채팅봇이 인기 있는 암호화 Discord/Telegram 그룹에 침투하여 모더레이터를 사칭하고 사람들을 악성 링크를 클릭하도록 유도하거나 지갑 키 정보를 제공하도록 속이는 사례를 보고했습니다. 봇은 심지어 누군가가 질문할 때 자연어로 실시간으로 응답할 수 있으며, 이는 일반적인 알림(예: 긴 지연 또는 관련 없는 답변)을 무력화합니다.
규모의 크기는 엄청나서 단일 사기범(또는 소규모 팀)이 수백 개의 AI 주도적 페르소나를 동시에 효율적으로 운영할 수 있습니다. 그들은 암호화와 관련된 특정 키워드를 감시하고(예: “비밀번호 잊어버렸어요 MetaMask”) 사전 준비된 사기 메시지로 사용자에게 자동으로 응답하거나 DM을 보낼 수 있는 AI 에이전트를 사용할 수 있습니다. AI 이전에는 수동으로 하거나 쉽게 감지되는 간단한 스크립트를 사용해야 했습니다. 이제 모든 것이 더 적응적입니다. 우리는 또한 AI가 가짜 참여를 생성하는 데 사용되는 것을 보고 있습니다: 수천 개의 봇 계정에서 댓글과 좋아요를 남겨 사기 게시물이나 사기 토큰이 인기가 있는 것처럼 보이게 합니다. 예를 들어, 사기 ICO에서는 Twitter에서 수십 명의 “투자자”(모두 봇)가 프로젝트를 칭찬하고 자신들의 이익을 공유하는 것을 볼 수 있습니다. 프로젝트를 조사하는 사람들은 긍정적인 대화를 보고 이것이 진짜라는 기분을 속아서 믿을 수 있습니다.
소셜 미디어 봇 사기를 방지하는 방법: 먼저, 봇 활동의 징후를 인식하십시오. 온라인에서 암호화 문제를 언급하자마자 즉각적인 일반적인 응답을 받으면, 이는 악의적일 가능성이 높습니다. 예쁜 프로필 사진을 가진 사람이라 하더라도, 무작위로 보내진 링크를 클릭하지 마세요. 프로필을 주의 깊게 확인하세요: 언제 만들어졌나요? 정상적인 게시물의 역사가 있나요, 아니면 대부분 홍보적인가요? 종종 봇은 새 계정이거나 이상한 팔로워/팔로잉 비율을 가지고 있습니다. 텔레그램/디스코드에서는 설정을 조정해 그룹을 공유하지 않는 멤버로부터 메시지를 받지 않도록 하거나, 적어도 갑자기 메시지를 보내는 사람을 조심하세요. 공식 지원은 드물게 먼저 DM을 보낼 것입니다. 누군가가 관리자를 사칭하면, 평판 좋은 관리자들은 DM으로 지원을 수행하지 않으니 공식 지원 채널로 안내할 것입니다. Twitter 계정이 지갑이나 교환소의 지원이라고 주장한다면, 그 명칭을 회사의 알려진 명칭과 대조해 보세요 (사기범들은 "0"을 "O"로 바꾸는 것과 같은 것을 좋아합니다). 플랫폼 도구를 활용하세요: Twitter의 유료 검증은 완벽하지 않지만, 항상 “Binance Support”라고 주장하는 계정에 파란색 체크가 없는 것은 이제 볼 필요가 없습니다. Discord의 경우, 커뮤니티들이 때때로 봇 감지 도구를 사용합니다. 관리자 경고에 주의를 기울이고, 사기와 봇에 대해 주의하십시오.
사용자로서, 최고의 방어는 온라인에서 “친근한 낯선 사람”이 제공하는 도움이나 돈에 관한 건강한 냉소입니다. 진정한 사람들은 친절할 수 있지만, 암호화 소셜 스피어에서 오는 원치 않는 도움은 사기일 가능성이 더 큽니다. 그러므로 암호화 문제로 인해 당황하였다면, 이를 해결할 수 있다고 주장하는 첫 번째 DM을 보내는 사람을 믿고 싶은 충동에 저항하십시오. 대신 해당 서비스의 공식 웹사이트로 가서 지원 절차를 따르십시오. 스캐머들에게 초기 접촉을 거부함으로써, 그들의 AI 봇 이점은 무효화됩니다. 끝으로, 명백한 봇 계정을 신고하고 차단하십시오 - 많은 플랫폼이 사용자 보고서를 기반으로 AI 감지를 개선하고 있습니다. AI 대 AI와 같은 계속되는 군비 경쟁입니다, 플랫폼이 악의적 봇을 차단하기 위해 탐지 알고리즘을 배포하면서. 그러나 그들이 이것을 완벽하게 만들기 전까지, 경계심을 가지고 있을 때, 아마도 봇과 상호작용하지 않으면 암호화 자산을 안전하게 유지하는 데 도움이 될 것입니다.
8. 자율 "에이전트" 사기 - 다음 경계
앞으로 봐야할 가장 불안한 전망은 인간의 입력이 최소한으로 자동화되는 사기 운영 – AI 에이전트가 초점을 맞춘 사기입니다. 우리는 이미 이 초기 징후를 보고 있습니다. AI 에이전트는 본질적으로 독립적으로 의사 결정을 내리고 다단계 작업을 수행하는 소프트웨어 프로그램입니다 (종종 다른 AI 모델 및 소프트웨어 도구를 호출하여). 얼마 전 OpenAI가 발표한 ChatGPT 구동 에이전트가 브라우저를 탐색하고, 앱을 사용하며, 인간처럼 온라인에서 활동할 수 있어 흥분과 우려를 동시에 불러일으켰습니다. 사기범들은 틀림없이 이 기능들을 눈여겨보며 그들의 사기를 새로운 높이로 확장하려고 할 것입니다.
사기를 위해 설계된 AI 에이전트를 상상해보세요: 사회적 미디어를 스캔하여 잠재적인 타겟을 찾아내고 (예: 암호화 투자나 기술 지원 필요에 대해 게시하는 사람들), 자동으로 연락을 시작 할 수 있습니다 (DM 또는 이메일을 통해), 그 사람과 직접적으로 스크래핑한 모든 데이터를 통한 현실적인 대화를 지속하며, 사기 결과로 이끌어갑니다(피싱 사이트로 안내 하거나, 암호화를 전송하도록 설득하는 것과 같은). 피해자가 회의적인 것처럼 보인다면 AI가 지능적으로 톤을 변경하거나 다른 이야기를 시도할 수 있습니다, 인간 사기범이 할법한 방식으로. 그러나 이 AI는 수백 명의 피해자를 동시에 맡아 집중하지 않으며, 24시간 내내 운영될 수 있다는 점에서 차이가 납니다. 이는 공상이 아니라, 이제 존재하는 일부 구성 요소입니다. 사실, TRM Labs는 사기범들이 번역 및 자금세탁까지도 자동화 하기 위해 AI 에이전트를 사용한다고 경고했습니다 – 예를 들어, 목표하는 사회적 미디어 정보를 요약하여 사기를 맞춤화하거나, 과거의 피해자들에게 효과적이었던 사기 스크립트를 분석하여 최적화하는 것 등이 있습니다. 새로운 사기 기법을 안전하게 테스트할 수 있는 "피해자 페르소나" 에이전트에 대한 이야기도 있습니다. 이는 AI의 교묘한 활용입니다 – AI를 통해 사기를 테스트한 후 사람들에게 적용하는 사기범들.
기술 측면에서, AI 에이전트는 다양한 도구와 통합할 수 있습니다: 이메일 전송, VoIP 통화 수행(AI 음성을 사용하여), 문서 생성 등. 우리는 곧 AI 음성이 귀하의 은행 부정 부서의 직원이라고 주장하며 전화를 걸어 지능적으로 대화하는 자동화된 전화 사기와 직면할 수 있습니다. 또는 해킹된 이메일 계정을 인수하여 피해자의 연락처와 대화를 통해 돈을 요청하는 AI. 이 조합은 끝이 없습니다. Sam Altman의 경고에 따르면 적대를 하는 AI가 "모든 사람의 돈을 가져갈 수 있다"는 이러한 시나리오를 언급합니다. AI가 플랫폼을 넘어 멀티태스크 할 수 있다면 – 예를 들면 하나의 GPT 인스턴스를 사용하여 피해자에게 말하고, 다른 인스턴스를 사용하여 약한 비밀번호를 해킹하고, 자격 증명이 획득되면 다른 인스턴스를 사용하여 자금을 전송하는 것 – 인간 범죄자보다 훨씬 효율적으로 작동하는 완전한 "사기 조립 라인"이 형성됩니다. 그리고 인간 범죄자와 달리 AI는 피곤하지 않고 잠을 필요로 하지 않습니다.
보안 전문가와 법 집행 기관이 가만히 있지 않고 성실히 대응하고 있다는 점은 주목할 만합니다. 그들은 AI 위협을 대응하는 AI 솔루션을 탐구하고 있지만, AI 주도적 사기의 규모가 기존의 방어를 도전할 것입니다. 레거시 사기 탐지(간단한 규칙, 알려진 나쁜 키워드 등)는 항상 변화하고 문맥 인식의 공격을 생성하는 AI에 실패할 수 있습니다. 이를 완화하기 위해 기술 회사, 규제 기관, 사용자들 스스로가 포함된 큰 협력 노력이 필요할 것입니다. 규제 기관은 AI 생성 콘텐츠에 레이블을 붙이거나 딥페이크를 방지하기 위해 더 나은 신원 확인 방법을 요구하는 것을 시작하였습니다. 그 사이에는, 개인 차원에서 신뢰하지 않고 늘 확인하는 제로 트러스트 접근법이 중요할 것입니다.
AI 에이전트 시대에서 안전을 유지하기: 이미 제공된 많은 팁이 여전히 최고의 방어입니다 – 회의주의, 독립된 확인, 데이터 과다 제공을 막는 것 등이 있습니다. AI 에이전트가 등장함에 따라, 조금 이상하거나 너무 형식적인 상호작용에 대한 의심을 높여야 합니다. 예를 들어, AI는 대부분의 사기 채팅을 처리할 수 있지만 예상치 못한 질문에 삐끗할 수도 있습니다 – 개인적인 질문을 무시하고 스크립트를 계속 밀어붙이는 누군가를 경계하십시오. 계정에 다요인 인증(MFA)을 계속 사용하십시오; AI가 비밀번호를 노출하도록 속이더라도, 두 번째 요소(특히 물리적 보안 키)는 로그인하지 못하게 막을 수 있습니다. 금융 계좌를 면밀히 모니터링하여 무단 조치를 확인하십시오 – AI가 거래를 시작할 수 있지만, 이를 빨리 발견하면 취소하거나 되돌릴 수 있을지 모릅니다. 중요한 통신에서 진위 여부를 요구하십시오: 만약 “귀하의 은행”이 이메일을 보내거나 전화를 건다면, 공식 번호로 다시 전화하겠다고 말하십시오. NoSkip translation for markdown links.
Content:
진정한 기관은 그것을 거부할 것입니다. 소비자로서 우리는 콘텐츠를 검증하기 위한 새로운 도구(아마도 AI 기반)가 등장할 것이라고 볼 수도 있습니다. 예를 들어, AI 생성 텍스트나 딥페이크 비디오를 의심해 플래그를 표시할 수 있는 브라우저 플러그인이 그렇습니다. 이와 같은 보호 기술에 대해 알고 이를 사용하는 것은 공정한 경쟁의 장을 조성하는 데 도움이 될 것입니다.
궁극적으로, 이 AI 무기 경쟁에서 인간의 경계심이 가장 중요합니다. 상대방이 실제 사람이 아닐 수 있다는 점을 인식하여 신뢰 수준을 적절히 조정할 수 있습니다. 우리는 디지털 상호작용을 곧이곧대로 받아들일 수 없는 시대에 들어섰습니다. 이는 불안할 수 있지만, 이를 인식하는 것이 전투의 절반입니다. 사기가 자동화될 수 있더라도, 매번 검증되지 않은 요청을 악의적으로 간주하여 의심을 자동화하면, 가장 똑똑한 AI 사기조차 당신을 속이기 위해 매우 높은 기준에 부딪히게 됩니다.
9. 당국과 산업이 반격에 나서다
모든 것이 비관적이지만은 않습니다. 스캐머를 강화하는 같은 AI 기술이 사기를 감지하고 방지하는 데 활용될 수 있으며, 이를 위해 일대의 노력이 진행되고 있습니다. 블록체인 분석 기업, 사이버 보안 회사, 법 집행 기관은 점점 더 AI와 기계 학습을 사용하여 AI 기반 암호화 사기에 대처하고 있습니다. 이는 전형적인 캣 앤 마우스 역학입니다. 다음은 착한 사람들이 대응하는 방법입니다:
-
AI 기반 사기 감지: Chainalysis 및 TRM Labs와 같은 회사는 사기 징후를 판별하기 위해 AI를 모니터링 플랫폼에 통합했습니다. 예를 들어, 기계 학습 모델은 수백만 개의 메시지의 텍스트를 분석하여 AI 생성의 언어적 단서나 사회 공학적 패턴을 파악합니다. 또한 체인 상에서의 행동을 추적합니다 – 한 보고서에 따르면 사기 지갑으로의 입금의 약 60%가 AI 사용과 연결되어 있습니다. AI 서비스를 결제하거나 자동화된 거래 패턴을 보이는 지갑을 식별하여 수사관들은 사기 작업일 가능성이 높은 경우를 조기에 감지할 수 있습니다. 일부 피싱 방지 솔루션은 AI 비전을 사용하여 가짜 웹사이트를 빠르게 인식합니다(로고의 픽셀 수준 불일치나 약간의 도메인 차이를 스캔하여 수동 검토보다 더 빠르게).
-
인증 개선: Altman의 음성 및 비디오 신뢰성에 대한 언급을 고려하여, 기관들은 보다 강력한 인증 쪽으로 나아가고 있습니다. 생체 인식은 대량으로 AI가 모방하기 어려운 기기 지문이나 행동 생체 인식(예: 타이핑이나 스와이프 방식)으로 전환될 수 있습니다. 규제 기관은 은행 및 거래소가 대규모 거래에 대해 다중 요인 및 외부 검증을 구현하도록 유도하고 있습니다 – 예를 들어, 큰 암호화 출금을 요청할 경우, 생방송 영상 통화에서 랜덤 행동을 수행하게 해 AI가 올바르게 대응하기 어렵게 합니다. 연방준비제도와 기타 기관들은 AI 사칭 시도를 감지하기 위한 기준을 논의하고 있으며, 2,500만 달러 딥페이크 CFO 사기와 같은 사례에 의해 촉발되었습니다.
-
인식 캠페인: 당국은 공공 교육이 중요함을 알고 있습니다. FBI, Europol 등은 AI 사기 전술에 대해 사람들에게 정보를 제공하기 위해 경고를 발행하고 웨비나를 개최했습니다. 여기에는 우리가 이 글에서 언급한 실질적인 조언, 예를 들어 딥페이크 흔적이나 의심스러운 AI 작성 텍스트를 식별하는 방법 등이 포함됩니다. 많은 사람들이 이러한 사항을 알게 되면, 사기의 효과는 감소할 것입니다. 일부 관할권에서는 AI 생성 콘텐츠를 공개해야 하는 정치 광고에 경고 라벨을 의무화하는 것을 고려하고 있습니다; 이러한 정책은 재정적 홍보에도 확장될 수 있습니다.
-
법적 및 정책 조치: 기술이 빠르게 발전함에도 불구하고, 딥페이크 남용에 대한 법률을 강화하는 논의가 있습니다. 미국의 일부 주는 선거에서 딥페이크를 사용하거나 범죄에서 누군가를 사칭하는 것을 금지하는 법률을 갖추고 있으며, 이는 사기 건에도 적용될 수 있습니다. 규제 당국은 또한 AI 도구 제공자의 책임을 검토 하고 있습니다 – WormGPT와 같은 제품이 명백히 범죄 용도로 만들어진 경우, 그 창작자나 사용자를 추적할 수 있을까요? 이에 병행하여, 주류 AI 기업들은 AI 생성 출력에 워터마크를 추가하거나 진위를 확인할 수 있는 방법을 개발하고 있습니다 (예를 들어, OpenAI는 GPT 텍스트의 암호화 워터마킹을 연구한 바 있습니다). 이러한 방식이 널리 채택된다면 실제와 AI를 구분하는 데 도움이 될 수 있습니다.
-
협력 및 정보 공유: 긍정적인 점 중 하나는 AI 사기의 위협이 협력을 촉진했다는 것입니다. 암호화 거래소, 은행, 기술 플랫폼, 법 집행 기관은 사기꾼의 주소, 알려진 딥페이크 전술, 피싱 트렌드에 대한 데이터를 공유하고 있습니다. 예를 들어, 한 거래소가 가짜 자격 증명으로 개설된 계좌를 발견하면, 다른 기관이나 법 집행 기관에 이를 경고하여 동일한 신원이 다른 곳에서 재사용되는 것을 방지할 수 있습니다. 대규모 사건 후, 업계 그룹은 AI가 사용된 방법을 학습하고 대응 전략을 보급하기 위해 사후 분석을 수행합니다.
-
피해자 지원 및 개입: 많은 피해자가 부끄러워하여 신고를 주저할 것임을 인식하고 (~15%만 손실을 보고), 일부 기관은 적극적인 대응을 하고 있습니다. FBI의 2024년 Operation Level Up은 금융 흐름을 분석하여 피해자들이 사기를 당했음을 인식하기 전에 수천 명의 피해자를 식별하고, 시기 적절한 경고를 통해 추가적으로 2억 8,500만 달러의 손실을 예방했습니다. 즉, 더 나은 감지 덕분에 실시간으로 개입이 가능했습니다. AI 활용 가능성을 포함한 더 많은 이와 같은 이니셔티브는 사기 패턴을 조기에 포착하여 희생자를 구할 수 있습니다 (예: 가짜 플랫폼에 대한 비정상적인 반복 거래).
결국, AI 지원 사기를 물리치려면 "온 마을이 필요하다": 기술 방어, 정보에 기반한 사용자, 업데이트된 규정과 국경 간 법 집행 협력이 필요합니다. 스캐머들이 AI를 자신들의 작업흐름에 통합하는 데 뛰어났음을 증명했지만, 상쇄책들도 동시적으로 발전하고 있습니다. 이는 계속되는 전투이며, 결코 진 것만은 아닙니다. 위협과 출현하는 솔루션에 대해 인식을 유지함으로써, 암호화 커뮤니티는 적응할 수 있습니다. 이런 식으로 생각하세요 – 예, 스캐머들은 강력한 새로운 도구를 갖고 있지만, 우리도 마찬가지입니다. AI는 막대한 양의 데이터를 통해 건초더미에서 바늘을 찾는 데 도움을 줄 수 있습니다 (예: 사기 지갑 네트워크를 클러스터링하거나 딥페이크 콘텐츠 감지). 또한, 사람들에게 사기 시도에 어떻게 대응해야 하는지 가르치는 AI 기반 교육 시뮬레이션을 통해 교육할 수도 있습니다.
10. 자신을 보호하기: 안전을 유지하기 위한 핵심 요약
AI가 암호화를 탈취하는 다양한 방법을 탐구해보았으니, 몇 가지 실질적인 보호 팁을 정리해봅시다. 이것들은 사기가 발전하면서도 당신을 고급 타겟이 되게 만들 수 있는 습관과 예방 조치들입니다:
-
비요청된 연락에 대해 회의적인 태도를 가지세요: 예기치 않은 "친구"로부터의 영상통화, 도움을 제공하는 DM, 투자 기회에 대한 이메일 등은 모두 사기일 수 있다고 가정하세요. 이렇게 생각해야 한다니 슬프지만, 이것이 첫 번째 방어 수단입니다. 모든 신규 연락이나 긴급 요청은 추가 채널로 확인될 때까지 잠재적으로 사기로 간주하세요.
-
여러 채널을 통해 신원을 확인하세요: 알려진 사람이나 회사로부터의 소통을 받았다면, 다른 방법으로 이를 확인하세요. 알려진 번호로 그 사람에게 전화하거나, 회사 웹사이트의 공식 지원 주소로 이메일을 보내세요. 의심스러운 메시지에 제공된 연락처 정보를 신뢰하지 마세요 – 독립적으로 찾아보세요.
-
천천히 검토하고 내용을 분석하세요: 사기꾼(Messages나 AI)이 당신을 깜짝 놀라게 하는 것을 목표로 합니다. 메시지와 미디어를 분석할 시간을 가지세요. 딥페이크(이상한 시각적 아티팩트, 립싱크 문제)와 피싱(오타 있는 도메인, 비정상적인 자격 증명 요청)의 미묘한 징후를 확인하세요. 메시지의 문맥이나 문구가 발신자로 주장하는 것과 조금이라도 다르다면, 본능을 신뢰하고 더 조사를 하세요.
-
강력한 보안 조치를 사용하세요: 모든 암호화 계정과 이메일에 대해 2단계 인증(2FA)을 활성화하세요. 가능하다면 SMS보다 앱 기반이나 하드웨어 기반의 2FA를 선호하세요 (SIM 스왑 공격이 또 다른 위험입니다). 큰 자금을 보유할 경우 하드웨어 지갑 사용하는 것을 고려하세요 – 사기꾼이 당신을 속여도 물리적 장치 없이는 자금을 이동할 수 없습니다. 소프트웨어 업데이트와 바이러스 백신으로 기기를 안전하게 유지하여 침투한 악성 소프트웨어에 대비하세요.
-
개인정보 보호하기: 온라인에서 당신에 대해 배울 수 있는 것이 적을수록, 그들의 AI가 활용할 수 있는 자료가 적어집니다. 이메일, 전화, 금융정보 같은 민감한 정보를 공개 포럼에서 공유하지 마세요. 소셜 미디어에 포스팅하는 내용에 주의하세요 – 재미있는 개인 업데이트나 음성 클립이 AI의 타겟이 될 수 있습니다(예: 음성 복제 훈련). 메시지나 콘텐츠를 볼 수 있는 사람을 제한할 수 있도록 개인정보 설정도 확인하세요.
-
자신과 타인을 교육하세요: 최신 사기 트렌드에 대해 정보를 얻으세요. 새로운 딥페이크 기술이나 피싱 전략에 대해 읽어보면 이를 인식할 수 있습니다. 기술에 무지할 수 있는 친구나 가족과 이런 지식을 공유하세요, 특히 더 위험할 수 있는 사람들. 예를 들어, 메시지를 전할 때 AI가 음성을 위조할 수 있다고 노인 친척에게 설명하여 비상 통화는 항상 확인하라고 당부합니다. 주변 사람 모두가 경계할 수 있도록 격려하세요.
-
신뢰할 수 있는 출처와 공식 앱 사용하기: 암호화를 관리할 때, 공식 앱과 웹사이트만 사용하세요. 보내진 링크를 따르지 마세요 – 거래소나 월렛 URL을 직접 입력하세요. 새 프로젝트나 봇을 탐색할 때는 그 신뢰성을 철저히 조사하세요 (리뷰, 뉴스, 팀의 배경을 찾아보세요). 소프트웨어를 다운로드할 때는 공식 스토어나 프로젝트의 사이트에서만 다운로드하세요, 무작위 링크나 보낸 파일에서는 하지 마세요.
-
보안 도구 활용하기: 알려진 피싱 사이트를 차단하는 브라우저 확장 프로그램 또는 서비스를 고려하세요. 일부 비밀번호 관리자는 저장된 사이트와 맞지 않는 미확인 도메인에 있을 때 경고를 제공합니다. 이메일 제공자는 AI를 사용하여 잠재적인 사기 이메일에 플래그를 표시하고 있습니다 – 이러한 경고에 주목하세요. 또한, 이미지/비디오에 대한 딥페이크 감지 도구도 등장하고 있으며, 오류가 있을 수 있지만, 이를 통해 의심스러운 비디오 분석에 대한 또 하나의 신뢰성을 제공합니다.
-
신뢰하지만 검증하기 – 아니 더 나아가 제로 트러스트 접근하기: 암호화에서 건강한 정도의 편집증은 자산을 구하는 데 도움이 될 수 있습니다. 누군가를 신뢰할 수밖에 없는 상황이 발생하면 (예: 장외 거래...Skip translation for markdown links.
Content: 새로운 비즈니스 파트너), 철저한 실사를 수행하고 큰 거래에는 대면 회의를 요구하는 것이 좋습니다. 돈 문제에서는 확인을 두 번 하는 것이 괜찮습니다. 속담에서 말하듯이, “믿지 말고 검증하라” – 원래 블록체인 거래에 관한 말이었지만 이제는 커뮤니케이션에도 적용됩니다.
- 대상을 당했을 때 보고하고 도움을 요청하십시오: 사기 시도를 당하면 플랫폼에 보고하여 악의적인 계정을 제거하도록 조치를 취하고 Chainabuse와 같은 사이트나 정부의 사기 사이트에 보고하십시오. 이는 커뮤니티에 도움이 되고 수사에 도움이 될 수 있습니다. 불행히도 피해자가 될 경우 즉시 당국에 연락하십시오. 회복이 어렵긴 하지만, 조기 보고는 가능성을 높입니다. 또한 귀하의 사례가 다른 사람들이 사기를 당하지 않도록 귀중한 정보를 제공할 수 있습니다.
결론적으로, AI 기반 암호화 사기의 증가는 심각한 도전이지만 극복할 수 없는 것은 아닙니다. 딥페이크, 음성 클론, AI 챗봇, 가짜 AI 투자 등 적의 방법을 알고 있으면 그들의 움직임을 예측하고 함정을 피할 수 있습니다. 기술은 양측 모두 계속 발전할 것입니다. 오늘은 딥페이크 비디오와 GPT로 작성된 이메일이지만 내일은 더 정교한 속임수가 있을지 모릅니다. 그러나 기본적으로 대부분의 사기는 여전히 귀하의 최선의 이익에 반하는 행동을 하도록 유도합니다 – 돈을 보내거나, 비밀을 누설하거나, 보안을 우회하도록 말입니다. 이는 잠시 멈추고 배운 지식을 적용해야 할 때입니다. 경계를 유지하고 정보를 숙지하면 가장 똑똑한 기계 주도의 사기도 물리칠 수 있습니다. 가장 강력한 방어는 궁극적으로 여러분 자신의 비판적 사고입니다. 인공적인 가짜가 가득한 세상에서 진정한 회의주의는 소중한 것입니다.