Portfel

10 największych oszustw krypto zasilanych AI w 2025 roku i jak chronić swoje fundusze

10 największych oszustw krypto zasilanych AI w 2025 roku i jak chronić swoje fundusze

Regularni inwestorzy krypto stoją przed alarmującym nowym zagrożeniem: oszustami uzbrojonymi w zaawansowaną sztuczną inteligencję. Oszustwa krypto zasilane przez AI eksplodowały w ciągu ostatniego roku – liczba zgłoszeń oszustw wspomaganych AI wzrosła o 456% między połową 2024 a połową 2025 roku.

Oszuści teraz korzystają z AI do tworzenia realistycznych fałszywych filmów, głosów i wiadomości, co sprawia, że ich oszustwa krypto są bardziej przekonujące i trudniejsze do wykrycia niż kiedykolwiek. Według FBI, w 2024 roku złożono prawie 150,000 skarg na oszustwa związane z kryptowalutami, z czego same straty w USA wyniosły ponad 3,9 miliarda dolarów. Globalnie, straty z oszustw krypto przekroczyły 10,7 miliarda dolarów w 2024 roku – a to może być tylko wierzchołek góry lodowej, ponieważ szacuje się, że tylko 15% ofiar zgłasza przestępstwa.

Nawet Sam Altman, CEO OpenAI, ostrzegał, że zdolność AI do naśladowania ludzi „całkowicie pokonała większość metod uwierzytelniania” i może spowodować „znaczący kryzys oszustw w nadchodzącej przyszłości”. W tym artykule analizujemy 10 najczęstszych oszustw krypto napędzanych AI, pokazując, jak działają na prawdziwych przykładach oraz, co najważniejsze, jak możesz się chronić.

be87d68f-600e-4f3f-817f-24e725a46810.png

Wykres: Udział transakcji oszustw krypto z wykorzystaniem narzędzi AI wzrósł od 2021 roku, a około 60% wszystkich adresów depozytowych oszustw w 2025 roku było związanych z oszustwami wspomaganymi AI. To odzwierciedla, jak szybko złe podmioty przyjęły do oszustw AI.

1. Oszustwa przy użyciu deepfake’ów z poparciem celebrytów (Fałszywe filmy i transmisje)

Jednym z najpowszechniejszych oszustw krypto zasilanych AI jest wykorzystanie deepfake’ów znanych postaci promujących fałszywe schematy. Oszuści cyfrowo podszywają się pod znane osobistości z branży technologicznej i krypto – Elon Musk jest ulubiony – w filmach reklamujących fałszywe giveaway lub platformy inwestycyjne. Na przykład przestępcy przejmują popularne kanały YouTube i prowadzą fałszywe transmisje na żywo z zmanipulowanymi filmami Elona Muska (lub innych influencerów krypto, takich jak Brad Garlinghouse z Ripple czy Michael Saylor z MicroStrategy), obiecując „podwój swoje Bitcoiny” lub inne nierealne zwroty. W rzeczywistości wideo i dźwięk zostały zmanipulowane przez AI; prawdziwi ludzie nigdy nie wypowiadali tych deklaracji. Widzowie, którzy wysyłają krypto na reklamowany adres oczekując nagród, są po prostu okradani?

To ewolucja wcześniejszych oszustw crypto giveaway, które wykorzystywały prawdziwe wywiady celebrytów. Teraz, dzięki technologii deepfake, oszuści wprowadzają nowe treści audio/wizualne, aby wyglądało, że celebryta bezpośrednio popiera ich stronę oszustwa. Te fałszywe transmisje na żywo mogą być bardzo przekonywujące na pierwszy rzut oka. Chainabuse (publiczna strona do zgłaszania oszustw) otrzymała zgłoszenia o deepfake Elona Muska w połowie 2024 roku, który wciągnął wiele ofiar w kilka minut, zdobywając dla oszustów znaczące środki. Analiza blockchain później pokazała, że adresy oszustwa otrzymały co najmniej 5 milionów dolarów od ofiar między marcem 2024 a styczniem 2025 roku, a inny schemat deepfake Muska reklamujący „platformę handlu AI” przyniosły ponad 3,3 miliona dolarów. Badanie przeprowadzone przez firmę cyberbezpieczeństwa Sensity stwierdziło, że Musk jest najczęściej deepfake’owanym celebrytą w oszustwach inwestycyjnych, prawdopodobnie ponieważ jego wizerunek nadaje wiarygodność, a często mówi o kryptowalutach. Oszuści wykorzystują to zaufanie.

Co gorsza, technologia deepfake w czasie rzeczywistym teraz umożliwia prawdziwe rozmowy wideo z fałszywą twarzą. To oznacza, że oszust może dosłownie pojawić się jako ktoś inny na callu Zoom. W jednym uderzającym przypadku przestępcy podszyli się pod CFO i kolegów firmy na wideo callu, używając AI do zamiany twarzy, oszukując pracownika do przelania 25 milionów dolarów oszustom. Deepfake’owani dyrektorzy wyglądali i brzmieli jak prawdziwi – koszmarna sytuacja dla każdej organizacji. Jak zauważył Sam Altman z OpenAI, „deepfake’i głosowe lub wideo stają się nieodróżnialne od rzeczywistości”. Dla przeciętnego inwestora krypto, deepfake wideo z zaufanym liderem, jak znany CEO czy założyciel projektu, może być bardzo przekonujące.

Jak wykrywać i unikać tych oszustw: Bądź niezwykle sceptyczny wobec „zbyt dobrych, aby były prawdziwe” promocji krypto, nawet jeśli zawierają celebrytę. Dokładnie zbadaj wideo – deepfake'i mogą wykazać subtelne usterki, takie jak nienaturalne mruganie, dziwne ruchy ust, czy niedopasowane oświetlenie wokół twarzy. Słuchaj nienaturalnego rytmu głosu lub artefaktów dźwiękowych. Jeśli znana osoba nagle obiecuje gwarantowane zyski lub giveawaye (szczególnie w transmisji na żywo proszącej o wysłanie krypto), to prawie na pewno oszustwo. Sprawdź oficjalne źródła; na przykład Elon Musk wielokrotnie zaznacza, że nie prowadzi giveaway krypto. Nigdy nie wysyłaj środków na losowe adresy z wideo. Jeśli masz wątpliwości, zatrzymaj się – oszuści polegają na emocjach i pilności. Poświęcając chwilę, aby zweryfikować w oficjalnych kanałach lub mediach informacyjnych, czy promocja jest prawdziwa (nie będzie), można uniknąć wpadki w pułapki endorsementowych deepfake'ów.

2. Oszustwa naśladowcze z głosami i filmami naśladowcami (Dyrektorzy lub Bliscy)

AI deepfake’i nie ograniczają się do sławnych miliarderów – oszuści również używają ich do podszywania się pod osoby, które znasz lub autorytety, którym ufasz. W tych schematach, przestępcy wykorzystują AI do generowania klonów głosów i awatarów filmowych, by oszukiwać ofiary w bardziej osobistych kontekstach. Jedna niepokojąca odmiana to oszustwo „wezwań pomocy od bliskiej osoby”: ofiara otrzymuje telefon i słyszy głos, powiedzmy, wnuka lub małżonka twierdzącego, że jest w pilnej potrzebie pomocy i prosi o pieniądze (często w krypto lub przelewie bankowym). W rzeczywistości prawdziwy członek rodziny nigdy nie dzwonił – oszust użył próbki ich głosu (może z wideo społecznościowego) i użył AI, aby sklonować ich mowę i ton, potem zadzwonił do ofiary w potrzebie. Tego rodzaju oszustwa klonowania głosów już oszukały ludzi na całym świecie, grając na ludzkich emocjach. Wystarczy krótki klip audio, aby stworzyć przekonujący klon z dzisiejszymi narzędziami AI.

Inna odmiana celuje w firmy i inwestorów przez fałszywych dyrektorów lub partnerów. Jak wspomniano, oszuści na początku 2024 roku podszyli się pod CFO globalnej firmy Arup podczas rozmowy wideo, ale to nie jedyny przypadek. W Hongkongu bank oszukano na miliony po tym, jak pracownicy wykonali polecenia, które brzmiały, jakby pochodziły od ich liderów – głosy generowane przez AI. Widzieliśmy też, jak oszuści deepfake’owali tożsamości założycieli startupów i funkcjonariuszy giełd krypto, kontaktując się z inwestorami lub klientami przez wideoczat, aby autoryzować oszustwa finansowe. Te „CEO oszustwa naśladowcze” deepfake’owe wykorzystują fakt, że wiele interakcji biznesowych przeniosło się online. Jeśli rozpoznajesz twarz i głos swojego szefa na wideokonferencji, masz skłonność do zaufania. Oprogramowanie do zamiany twarzy na żywo może nałożyć twarz celu na oszusta w rzeczywistym czasie, sprawiając wrażenie, że prawdziwa osoba mówi. Ofiara następnie otrzymuje instrukcje, aby wysłać fundusze lub ujawnić kody bezpieczeństwa. Niektóre firmy tylko zdały sobie sprawę, że zostały oszukane, gdy pieniądze zniknęły.

Oszuści nawet łączą taktyki dla długotrwałych przekrętów „oszustw groomingowych”: Ekipy rzeźników świń (długoterminowe oszustwa inwestycyjne, patrz Sekcja 3) zaczęły używać krótkich rozmów wideo, aby „udowodnić”, że ich fałszywe persona jest prawdziwa. Używając zatrudnionego aktora lub modelu deepfake atrakcyjnej osoby, przestępcyprowadzą wideoczat z ofiarą tylko wystarczająco długo, aby zbudować zaufanie, a następnie kontynuować oszustwo poprzez tekst. Badacze z TRM Labs zaobserwowali przypadki oszustwa, w których wiedziano o wynajęciu deepfake-as-a-service – zasadniczo wynajmując narzędzia AI do prowadzenia na żywo oszustw wideo – co wskazuje na rosnący rynek kryminalny dla deepfake'ów na żądanie. W jednym przypadku sieć oszustów wydała część swoich zysków z krypto na usługę AI i zarobiła ponad 60 milionów dolarów od ofiar, sugerując, że inwestycja w technologię deepfake okazała się bardzo opłacalna.

Jak się chronić: Kluczem jest weryfikacja przez dodatkowe kanały. Jeśli otrzymasz niespodziewany telefon lub wideoczat, w którym ktoś prosi o pieniądze lub poufne informacje, nie działaj natychmiast, bez względu na to, kim wygląda/brzmi. Rozłącz się i zadzwoń do osoby z powrotem na znany numer albo potwierdź z innym kontaktem. Na przykład, jeśli „twój szef” pisze do ciebie o płatności, potwierdź, dzwoniąc bezpośrednio do szefa lub sprawdź z kolegą. Rodziny mogą ustalić kody dla sytuacji awaryjnych – jeśli dzwoniący twierdzący, że to twój krewny nie zna ustalonego kodu, będziesz wiedzieć, że to oszustwo. Bądź ostrożny wobec dowolnego wideoczatu, w którym twarz osoby wygląda nieco nienaturalnie (zbyt gładko, dziwne detale oczu czy włosów) lub dźwięk jest odrobinę opóźniony lub robotyczny. Instrukcje finansowe przez wideo/mail zawsze należy dwukrotnie sprawdzać potwierdzając je osobiście lub głosem na zaufanej linii. Jak podkreślił Sam Altman, tradycyjne uwierzytelnianie (jak rozpoznawanie głosu) nie jest już wiarygodne. Traktuj każdą niechcianą, pilną prośbę o krypto lub przelewy z ekstremalnym sceptycyzmem, nawet jeśli „pochodzi od” kogoś, komu ufasz. Kilka minut, które poświęcisz na niezależną weryfikację tożsamości, może uratować cię (lub twoją firmę) przed kosztownym oszustwem deepfakeowym.

3. Oszustwa miłosne i inwestycyjne wspomagane AI („Rzeźnictwo świń”)

Tzw. oszustwa „rzeźnictwa świń” – długoterminowe plany, w których oszuści budują relacje online z ofiarą przed osuszeniem jej oszczędności – stały się o wiele bardziej niebezpieczne dzięki AI. W typowym scenariuszu rzeźnictwa świń (często w formie miłości lub przyjaźni zawieranej przez media społecznościowe czy aplikacje randkowe), oszuści poświęcają tygodnie czy miesiące na zdobywanie zaufania ofiary. Ostatecznie wprowadzają „świetną” okazję inwestycyjną w krypto i przekonują ofiarę do zainwestowania pieniędzy, tylko po to, żeby cały plan okazał się fałszywy. Te przekręty są pracochłonne dla oszustów, którzy muszą codziennie czatować i wiarygodnie grać rolę kochanka lub mentora. Teraz, chatboty AI i deepfake’i przyspieszają ten proces, przekształcając rzeźnictwo świń w skalowalną, globalną operację oszustwa zamiast oszustwa jeden na jeden.

Syndykaty oszukańcze wdrażają modele językowe AI (LLM), aby obsługiwać większość komunikacji z ofiarami. Używając narzędzi takich jak ChatGPT – To translate the provided content into Polish while adhering to the specified guideline of skipping the translation for markdown links, here is the translation:


Omijaj tłumaczenia dla łączy markdown.

„WormGPT” i „FraudGPT” – mogą generować płynne, ujmujące wiadomości w dowolnym języku, 24/7. Oznacza to, że jeden oszust może zarządzać dziesiątkami ofiar jednocześnie, a sztuczna inteligencja tworzy spersonalizowane, miłosne teksty, analizy rynku czy cokolwiek innego wymaga scenariusz. W rzeczywistości, śledztwo Sophos z 2023 roku wykazało, że grupy zajmujące się oszustwami „pig butchering” zaczęły używać ChatGPT do pisania swoich czatów; jedna z ofiar nawet otrzymała dziwną wklejoną wiadomość, która przypadkowo ujawniła, że została wygenerowana przez AI. Pomijając błąd, LLM umożliwiają oszustom „hiperpersonalizację” podejścia – dostosowując ton i treść odpowiednio do tła i stanu emocjonalnego każdej ofiary. Dni złamanego angielskiego lub skryptów kopiuj-wklej minęły. Dzięki AI teksty wydają się autentyczne, co czyni ofiary jeszcze bardziej podatnymi na końcową ofertę.

AI również przełamuje barierę językową, która kiedyś ograniczała te oszustwa. Początkowo wiele grup „pig butchering” miało swoje bazy w Azji Południowo-Wschodniej, skupiając się na ofiarach mówiących po chińsku. Rozszerzenie na ofiary z Zachodu było utrudnione przez słabsze umiejętności oszustów w języku angielskim – niezręczna gramatyka była często sygnałem ostrzegawczym. Teraz tłumaczenia i pisanie oparte na LLM pozwala mówcom niemówiącym natywnie łatwo okraść kogoś w języku angielskim, niemieckim, japońskim lub na dowolnym lukratywnym rynku. Oszuści przekazują przychodzące wiadomości do AI w celu tłumaczenia i generowania odpowiedzi, umożliwiając im udawanie kosmopolitycznych inwestorów lub romantycznych partnerów nawet w językach, których nie znają. To znacznie rozszerzyło pulę celów. Wykształceni profesjonaliści w Europie lub Ameryce Północnej, którzy mogli odrzucić niezdarne wiadomości oszustów, teraz mogą otrzymywać wykończoną, idealnie lokalizowaną korespondencję od „atrakcyjnego przedsiębiorcy”, który poznał ich online. Rezultat? Więcej ofiar utuczonych (jak „świni”) na ostateczną rzeź.

I nie zapominajmy o deepfake'ach w oszustwach „pig butchering”. Choć większość manipulacji odbywa się za pomocą tekstu, oszuści czasami planują krótkie rozmowy wideo, aby rozwiać podejrzenia. Coraz częściej używają tu wideo deepfake'ów z zamienionymi twarzami – na przykład, oszust może zatrudnić kobietę do pojawienia się przed kamerą, ale użyć AI, aby zamienić jej twarz na skradzione zdjęcia używane w profilu. Ta strategia „dowodu życia” przekonuje ofiarę, że ich internetowa miłość jest prawdziwa. (Niektóre operacje nawet ogłaszają się jako poszukujące „modeli twarzy”, którzy przy pomocy filtrów AI wyglądają jak wymarzony partner ofiary na wideo.) Po zabezpieczeniu zaufania, oszuści kierują ofiary do inwestowania w fałszywe platformy kryptograficzne lub programy „liquidity mining”, często pokazując fałszywe zrzuty ekranu z zyskiem, aby zachęcić do większych depozytów. Ofiary znane są z tego, że refinansują domy lub opróżniają swoje 401(k) pod iluzją wspólnego życia z oszustem lub dużych zysków tuż za rogiem. To absolutnie druzgocące – a AI jedynie wzmacnia oszustwo.

Jak unikać oszustw „pig butchering”: Zachowaj zdrowy sceptycyzm wobec relacji wyłącznie online lub mentorswa, które zaczynają się przypadkowo i stają się nieproporcjonalnie intensywne. Jeśli ktoś, kogo nigdy nie spotkałeś na żywo, prowadzi cię do inwestowania w krypto lub prosi o pomoc finansową, to jaskrawy sygnał ostrzegawczy. Wyszukaj obrazy profilowe wstecznie, aby sprawdzić, czy nie są kradzione (wiele oszustw „pig butchering” wykorzystuje zdjęcia modeli lub innych ofiar). Bądź ostrożny podczas rozmów wideo, gdzie kamera osoby jest dziwnie niskiej jakości lub nie pokazują w pełni swojej twarzy – mogą ukrywać anomalię deepfake'a. Narzucanie inwestycji w pośpiechu lub twierdzenia o znajomości informacji wewnętrznych to oznaki oszustwa. Pamiętaj również, że prawowici profesjonaliści inwestycyjni lub partnerzy romantyczni zazwyczaj nie obiecują gwarantowanych zysków. FBI i inne agencje wydały formalne ostrzeżenia o „pig butchering” i oszustwach romantycznych związanych z kryptowalutą – więc edukuj siebie i innych o tym, jak te oszustwa działają. Jeśli podejrzewasz, że ktoś może być oszustem, zerwij kontakt i nigdy nie wysyłaj mu pieniędzy ani kryptowalut. A jeśli zostałeś celem, zgłoś to (anonimowo, jeśli to konieczne), aby pomóc władzom w ściganiu tych grup. Świadomość to najlepsza obrona, więc niezależnie od tego, jak gładka będzie rozmowa wspomagana przez AI, nie daj się złapać.

4. Phishingowe emaile i wiadomości napisane przez AI (Bardziej inteligentne oszustwa na masową skalę)

Phishing – te fałszywe emaile lub wiadomości, które oszukują cię do kliknięcia na złośliwy link lub podania prywatnych informacji – od dawna były grą liczbową. Oszuści wysyłają tysiące ogólnych wiadomości („Twoje konto jest zagrożone, zaloguj się tutaj...”) w nadziei, że kilka osób da się złapać. Teraz AI sprawia, że phishing jest dużo bardziej przekonujący i bardziej ukierunkowany. Dzięki narzędziom, takim jak generatywne modele językowe, atakujący mogą z łatwością tworzyć spersonalizowane, płynne wiadomości, które naśladują styl prawdziwej komunikacji, znacznie zwiększając swoją skuteczność.

Modele językowe dużych skali (LLM) mogą generować przynęty phishingowe, które są niemal nieodróżnialne od prawdziwego emaila z twojego banku, giełdy krypto czy od znajomego. Eliminują błędy gramatyczne i niezręczną frazeologię, które często zdradzały starsze oszustwa. Na przykład, AI można polecić napisanie pilnego emaila od „[Twój Exchange Krypto] Bezpieczeństwo”, ostrzegającego o wypłacie i podającego link do „zabezpieczenia konta”. Tekst będzie wypolerowany i zgodny z marką. Oszuści używają także AI, aby przeszukać twoje media społecznościowe i precyzyjnie dostosować wiadomości – odnosić się do niedawnych transakcji lub wymieniać imię znajomego – technika znana jako spear phishing. Tego rodzaju personalizacja kiedyś wymagała znacznego wysiłku, ale agent AI może to zrobić w sekundach, przeszukując dane publiczne.

Istnieją nawet podziemne narzędzia AI stworzone specjalnie dla cyberprzestępczości. Ponieważ publiczne modele, takie jak ChatGPT, mają filtry przeciwko nielegalnym zastosowaniom, przestępcy rozwinęli lub kupili czarne rynkowe modele LLM, takie jak „WormGPT” i „FraudGPT”, które nie mają takich ograniczeń. Te złośliwe AI, dostępne na forach dark webu, mogą wygenerować przekonujące emaile phishingowe, złośliwy kod, a nawet krok po kroku porady na temat oszustw. Przy prostym poleceniu, oszust z ograniczonymi umiejętnościami językowymi może stworzyć niemal doskonały email w dowolnym języku, czy wygenerować cały tekst strony phishingowej. Według firmy szkoleniowej w zakresie cyberbezpieczeństwa KnowBe4, do 2024 roku prawie 74% phishingowych emaili, które analizowali, wykazywało oznaki użycia AI – innymi słowy, większość prób phishingu jest teraz napędzana zdolnościami AI do pisania.

Poza emailem, chatboty AI stanowią zagrożenie na platformach komunikacyjnych. Oszuści mogą wdrażać boty w Telegramie, Discordzie, WhatsAppie itp., które angażują użytkowników w rozmowę w realnym czasie, zwodząc ich tak, jak robiłby to człowiek. Na przykład, możesz tweetować o problemie z portfelem kryptowalut i szybko otrzymać odpowiedź od „przedstawiciela wsparcia” (w rzeczywistości bota), który wyśle ci wiadomość prywatną. AI, udając obsługę klienta, następnie prowadzi cię przez fałszywą „weryfikację”, która kradnie twoje klucze. Ponieważ chatbot może rozumieć i naturalnie odpowiadać na twoje pytania, mniej prawdopodobne jest, że zorientujesz się, że jest to oszustwo. Tego rodzaju inżynieria społeczna wspomagana przez AI może oszukać nawet zaawansowanych technologicznie użytkowników. W jednym przypadku oszuści stworzyli fałszywego chatbota „asystenta inwestycyjnego”, który obiecywał pomóc użytkownikom w handlu kryptowalutą – był to jednak tylko pułapka mająca na celu zbieranie kluczy API i danych konta.

 Ilustracja koncepcji cyfrowego oszusta wykorzystującego AI. Ataki phishingowe i złośliwe oprogramowanie są coraz częściej wspierane przez algorytmy AI, które mogą generować realistyczne wiadomości, a nawet złośliwy kod kierowany na kradzież haseł i funduszy kryptowalutowych.

Co więcej, AI może pomóc w hakowaniu, produkując kod złośliwego oprogramowania i automatyzując ataki. Na przykład, przestępca z minimalnymi umiejętnościami programistycznymi może poprosić niecenzurowaną AI o napisanie programu, który opróżnia portfele kryptowalutowe lub instalującego keyloggera, aby uchwycić frazy kluczowe. Zgłoszono przypadki tworzenia podstawowego oprogramowania typu ransomware i infostealerów z pomocą AI. Choć to już wkracza bardziej w hacking niż oszustwa, granice się rozmywają – często email phishingowy dostarcza złośliwego oprogramowania. Z pomocą AI przestępcy mogą produkować nowe warianty złośliwego oprogramowania szybciej niż zespoły bezpieczeństwa mogą je blokować. AI może również pomóc ominąć kontrole bezpieczeństwa: rozwiązywać CAPTCHA, generować fałszywe dowody osobiste do przejścia weryfikacji (patrz Sekcja 6), a nawet łamać hasła przez inteligentne zgadywanie (choć silne kryptograficzne klucze pozostają bezpieczne, słabe nie). Sam Altman ostrzegł, że nawet selfie i logowanie głosowe stały się dla AI trywialne do oszukania, co oznacza, że metody uwierzytelniania, na które polegamy, wymagają pilnej modernizacji.

Jak chronić się przed phishingowcami napędzanymi przez AI: Klasyczne porady nadal obowiązują – nigdy nie klikaj podejrzanych linków ani nie pobieraj załączników od nieznanych nadawców, bez względu na to, jak wiarygodnie wygląda wiadomość. Bądź czujny wobec wszelkiej komunikacji (email, SMS, DM), która tworzy poczucie pilności lub prosi o twoje dane logowania, kody 2FA czy frazę kluczową. Nawet jeśli formatowanie i język wydają się idealne, sprawdź dokładnie email/nadawcę – szukaj subtelnych błędów lub niepasujących URLi (np. „binance.support.com” zamiast prawdziwej domeny). Skontaktuj się bezpośrednio z usługodawcą lub osobą, jeśli otrzymasz niespodziewaną prośbę. Korzystaj z oficjalnych kanałów aplikacji/stron internetowych zamiast linków udostępnionych w wiadomościach. Na platformach społecznościowych przestawaj ufać „wsparciu”, które kontaktuje się z tobą proaktywnie; legalne firmy nie będą prosiły o hasła przez DM. Techniczne, włącz ochrony przeciw phishingowi, takie jak filtry emaili i narzędzia do reputacji stron internetowych – i aktualizuj swoje oprogramowanie antywirusowe, aby złapać złośliwe oprogramowanie. Najważniejsze, utrzymuj sceptyczne podejście. Jeśli jesteś naciskany, aby działać szybko lub ujawniać informacje, to twój sygnał, że należy zwolnić i zweryfikować. Traktując wszelkie niechciane wiadomości z ostrożnością, możesz przechytrzyć nawet oszustwa stworzone przez AI. Pamiętaj, że żadna prawdziwa firma czy przyjaciel nie będzie miał nic przeciwko, jeśli zabierzesz dodatkową minutę na potwierdzenie autentyczności – tylko oszuści naciskają na natychmiastowe działanie.

5. Fałszywe “AI Trading” Boty i Platformy (Inwestycyjne oszustwo na punkcie AI)

Szał wokół sztucznej inteligencji nie tylko operacyjnie przyniósł korzyści oszustom – stał się również przynętą samą w sobie. W ciągu ostatnich kilku lat odnotowano wzrost oszukańczych projektów kryptograficznych i schematów handlowych, które reklamują AI jako swój tajny składnik. Oszuści wiedzą, że przeciętny inwestor jest... Content:

Generowanie zysków. W ten sposób tworzą fałszywe boty handlowe napędzane przez AI, grupy sygnałów lub platformy DeFi, które obiecują gwarantowane zwroty dzięki zaawansowanemu algorytmowi, podczas gdy w rzeczywistości to tylko dym i lustra.

Jednym z powszechnych oszustw jest „oszustwo z botem handlowym AI”: Jestes zapraszany (często za pośrednictwem Telegrama lub Reddita) do użycia bota, który rzekomo wykorzystuje AI do handlu kryptowalutami z dużymi zyskami. Bot może nawet pokazywać symulowane wyniki lub demo, które dokonuje kilku dochodowych transakcji na koncie testowym. Ale gdy tylko wpłacisz swoje własne środki dla bota do handlu, zaczyna tracić – albo oszuści po prostu znikają z twoimi pieniędzmi. W innych przypadkach oszuści promują „fundusz inwestycyjny AI” lub pool wydobywczy – wysyłasz im krypto do inwestycji, zwabiony marketingowymi hasłami, takimi jak „strategia własnościowa napędzana AI” – ale to piramida finansowa. Wczesni „inwestorzy” mogą trochę odzyskać, by udowodnić, że to działa, ale ostatecznie operatorzy znikają z większością środków, pozostawiając po sobie błyskotliwą stronę internetową i brak odpowiedzialności.

Podczas szumu wokół ChatGPT w latach 2023–2024 pojawiły się dziesiątki nowych tokenów krypto i platform twierdzących, że mają jakąś aplikację AI. Podczas gdy niektóre były legalnymi projektami, wiele było zwykłymi oszustwami lub schematami pompowania i zrzutu. Oszuści ogłaszali token powiązany z rozwojem AI, obserwowali napływ środków od podekscytowanych inwestorów, a następnie porzucali projekt (klasyczny „rug pull”). Sama idea AI wystarczała, by napompować wartość tokena przed krachem. Widzieliśmy również, jak fałszywe wiadomości były wykorzystywane jako broń: sfałszowane filmy z Elonem Muskiem i innymi były używane do poparcia „platformy handlowej AI” (jak wspomniano wcześniej) w celu skierowania ofiar do inwestowania. Na przykład jeden sfałszowany film zachęcał ludzi do inwestowania w platformę, twierdząc, że wykorzystuje AI do gwarantowania zysków z handlu – nic takiego nie istniało. Te schematy często łączyły zaufanie do celebryty z tajemniczością technologii AI, aby wyglądać wiarygodnie.

Oszuści nie tylko kłamią, że mają AI, ale niektórzy używają AI, by wzmocnić iluzję. TRM Labs zauważyło poważną piramidę finansową w roku 2024 o nazwie MetaMax, która rzekomo oferowała wysokie zwroty za angażowanie się w treści w mediach społecznościowych. Aby wyglądać wiarygodnie, strona MetaMax pokazała CEO i zespół – ale „CEO” był tylko generowanym przez AI avatarem stworzonym przy użyciu technologii deepfake. Innymi słowy, nie było prawdziwej osoby – tylko obraz AI i być może głos AI, który zapewniał inwestorów, że MetaMax to następna wielka rzecz. Schemat i tak zdołał zarobić blisko 200 milionów dolarów (głównie od ofiar na Filipinach), zanim się zapadł. Inną stroną oszukańczą, babit.cc, posunęła się nawet do generowania całych zdjęć personelu za pomocą AI, zamiast używania skradzionych zdjęć prawdziwych ludzi. Chociaż można zauważyć pewną dziwną perfekcję w tych obrazach, z każdym miesiącem twarze generowane przez AI stają się bardziej realistyczne. Łatwo zauważyć, jak w przyszłości strony oszukańcze mogą mieć pełną obsadę pozornie wiarygodnych dyrektorów – żadna z tych osób nie istnieje w rzeczywistości.

Jak unikać oszustw inwestycyjnych związanych z AI: Podejdź do każdej „zbyt dobrej oferty, by była prawdziwa” propozycji inwestycyjnej z ogromną ostrożnością – zwłaszcza jeśli mocno reklamuje możliwości AI bez jasnych szczegółów. Odrób pracę domową: Jeśli projekt twierdzi, że używa AI, czy ma jakąś prawdziwą dokumentację lub doświadczony zespół? Bądź sceptyczny, jeśli nie możesz znaleźć żadnych wiarygodnych informacji o założycielach (lub jeśli jedyną informacją są profile stworzone za pomocą AI). Nigdy nie ufaj potwierdzeniom od celebrytów w przestrzeni krypto, chyba że są potwierdzone przez oficjalne kanały; w 99% przypadków osoby takie jak Musk, CZ czy Vitalik nie rozdają przypadkowo porady handlowe czy oferty podwajania środków. Jeśli bot handlowy AI jest taki świetny, zapytaj, dlaczego jego twórcy sprzedają do niego dostęp tanio lub reklamują na Telegramie – czy nie używaliby go po prostu prywatnie, żeby się wzbogacić? Taki test logiczny często ujawnia oszustwo. Pamiętaj także, że gwarantowane zwroty = czerwona flaga. Niezależnie od tego, jak zaawansowany jest algorytm, rynki krypto mają swoje ryzyko. Legalne firmy będą jasne co do ryzyk i nie będą obiecywać stałych wysokich zysków. Jako inwestor rozważ fakt, że oszuści uwielbiają modne słowa – „napełniany przez AI, kwantowy, gwarantowany, tajemniczy algorytm” – to są haczyki dla łatwowiernych. Trzymaj się znanych wymian i platform, a jeśli skusi cię nowy projekt, zainwestuj tylko to, co możesz stracić po samodzielnym zweryfikowaniu go. W razie wątpliwości poproś o opinię zaufane głosy w społeczności. Często szybki post na forum lub Reddicie na temat „Czy ktoś słyszał o botach AI XYZ?” ujawni ostrzeżenia, jeśli to oszustwo. Krótko mówiąc, nie pozwól, by FOMO z powodu przełomów AI przysłoniło twój osąd – jedyną rzeczą „zautomatyzowaną” w wielu z tych oszustw jest kradzież twoich pieniędzy.

6. Syntetyczne tożsamości i obejście KYC za pomocą AI

Oszustwa kryptowalutowe często wiążą się z siecią fałszywych tożsamości – nie tylko osób podszywających się pod ofiary, ale także kont i jednostek, które oszuści używają. AI teraz pozwala oszustom generować całe syntetyczne tożsamości na żądanie, omijając środki weryfikacyjne, które miały na celu wyeliminowanie oszustów. Ma to dwa główne skutki: (1) Oszuści mogą łatwiej otwierać konta na giełdach lub w usługach pod fałszywymi nazwiskami, i (2) mogą nadawać pozorną wiarygodność swoim stronom oszukańczym, zapełniając je członkami „zespołu” generowanymi przez AI lub świadectwami.

W zakresie zgodności wiele platform krypto wymaga sprawdzeń KYC (Know Your Customer) – np. przesłania zdjęcia identyfikacyjnego i selfie. W odpowiedzi, przestępcy zaczęli używać narzędzi AI do tworzenia fałszywych dokumentów tożsamości i oszukanych selfie, które są w stanie przejść te kontrole. Powszechnym podejściem jest użycie generatorów obrazów AI lub technologii deepfake do łączenia elementów prawdziwych dokumentów tożsamości lub syntezy podobizny osoby, która pasuje do nazwiska na skradzionej tożsamości. Była ostatnio anegdota w Decrypt o ludziach używających podstawowego AI do generowania fałszywych zdjęć prawa jazdy, by oszukać giełdy i banki. Nawet weryfikacje biometryczne nie są bezpieczne: AI może wyprodukować realistyczne wideo osoby trzymającej dokument tożsamości lub wykonującej dowolny ruch, który wymaga system. W zasadzie, oszust mógłby siedzieć przy swoim komputerze i nakierować AI na osobę fikcyjną, aby otwierać konta. Te konta są następnie wykorzystywane do prania skradzionego krypto lub zakładania platform oszukańczych. Kiedy śledczy zorientują się, że „John Doe”, który wycofał miliony nie jest prawdziwy, ślad jest już zimny.

Podobnie, promując oszustwa, posiadanie fałszywych „zweryfikowanych” tożsamości pomaga. Dotknęliśmy tematu AI-generowanych CEO w Sekcji 5 – jest to część szerszego trendu. Oszuści mogą zapełniać LinkedIn pracownikami, którzy nie istnieją (używając zdjęć głowy generowanych przez AI i auto-generowanych CV), tworzyć fałszywe recenzje użytkowników z profilami opartymi na GAN, a nawet generować fałszywych agentów obsługi klienta. Niektórzy ofiary zgłosiły czat z tym, co myśleli, że to przedstawiciel wsparcia wymiany (może przez wyskakujący czat na stronie phishingowej), a agent miał realistyczny awatar i imię. Nie wiedzieli, że to prawdopodobnie bot AI wspierany przez fikcyjną osobę. ThisPersonDoesNotExist (narzędzie AI, które generuje losowe realistyczne twarze) stało się dobrodziejstwem dla oszustów – za każdym razem, gdy konto oszukańcze jest oznaczone lub profil flagowany, generują nową unikalną twarz dla następnego, co utrudnia filtrowanie spamu nadążanie.

Nawet poza oszustwami wymierzonymi w użytkowników końcowych, fałszerstwo tożsamości wspomagane przez AI ułatwia przestępstwa. Zorganizowane grupy używają deepfakeów do oszukiwania procedur weryfikacji tożsamości przez wideo w bankach, co pozwala im zakładać konta mułów lub konta wymiany, które mogą wymieniać krypto na gotówkę pod fałszywą tożsamością. W jednym przypadku Europol zauważył przestępców używających AI do obejścia systemów weryfikacji głosowej w bankach poprzez naśladowanie głosów posiadaczy kont. I teraz organy ścigania widzą dowody na to, że przychody z oszustw krypto finansują te „zestawy tożsamości AI” – TRM Labs prześledziło krypto z ofiar pig butchering’u idące do dostawcy usług AI, prawdopodobnie na zakup narzędzi deepfake lub fałszywej tożsamości. Jest to pełny ekosystem przestępczy: kupić fałszywą tożsamość, użyć jej do założenia infrastruktury oszukującej, ukraść pieniądze, wyprać je przez giełdy otwarte z większą ilością fałszywych tożsamości.

Jak się bronić przed oszustwami związanymi z syntetycznymi tożsamościami: Dla użytkowników indywidualnych, nie jest to coś, co możesz bezpośrednio napotkać, ale bardziej, aby być świadomym, że zdjęcia lub „dokumentacja” mogą być sfałszowane. Jeśli masz do czynienia z nową platformą krypto lub usługą, zrób uprawnienia: Czy zespół jest prawdziwy i zweryfikowany? Jeśli odbytasz rozmowę wideo z „doradcą finansowym” i coś wydaje się nie tak (np. lekkie dziwności twarzy), zastanów się, czy nie może być, kim twierdzą. Dla firm, odpowiedzialność spoczywa na wzmocnieniu KYC i wykrywaniu oszustw – np. użyciu AI do walki z AI, jak sprawdzanie czy zdjęcie dowodu osobistego jest generowane, lub czy selfie to deepfake (istnieją algorytmy, które potrafią wykryć subtelne artefakty). Jako użytkownik, jedną z możliwych porad jest ochrona własnych danych tożsamościowych. Oszuści często trenują swoje modele deepfake na podstawie wszystkiego, co mogą znaleźć o tobie w sieci. Ograniczenie tego, co udostępniasz (np. nie publikowanie publicznie filmów, jeśli to uniknione, i utrzymywanie profili w prywatności) może zmniejszyć dostępne surowce dla złych aktorów. Również włącz i nalegaj na nadprogramowe środki bezpieczeństwa poza tylko sprawdzeniami tożsamości – na przykład, niektóre banki wymagają potwierdzenia losowej frazy wideo (co jest trudniejsze dla deepfake’a do wykonania na gorąco, choć nie niemożliwe). Ostatecznie, jak sugeruje Altman, sposób, w jaki weryfikujemy tożsamość musi ewoluować. Wielopoziomowa i ciągła weryfikacja (a nie tylko jedno zdjęcie) jest bezpieczniejsze. Na razie, jako konsument, wol teżuj usługi, które mają solidne zabezpieczenia i bądź sceptyczny, jeśli osoba lub strona żąda od ciebie danych osobowych bez solidnego uzasadnienia. Jeśli podejrzewasz, że konto lub profil jest fałszywy (może nowy profil społecznościowy kontaktuje się z tobą w sprawie inwestowania w krypto), zrób ostrożnie i wycofaj się. Im mniej dajesz oszustom możliwości użycia fałszywych tożsamości na tobie, tym lepiej.

7. Boty i naśladowcy w mediach społecznościowych napędzani przez AI

Oszuści kryptowalutowi od dawna prosperują w mediach społecznościowych, od Twittera i Facebooka po Telegram i Discord. Teraz AI dostarcza napędu dla botów i fałszywych kont, które ułatwiają te oszustwa, czyniąc je bardziej efektywnymi i trudniejszymi do odróżnienia od prawdziwych użytkowników. Jeżeli kiedykolwiek pisałeś tweeta o kryptowalutach i natychmiast dostawałeś odpowiedziTranslation in Polish (except for markdown links):


Oferowanie „wsparcia” lub losowe zaproszenia do znajomych od atrakcyjnych osób w kryptowalutach — prawdopodobnie spotkałeś się z tym problemem. AI pozwala oszustom wdrażać armie botów, które są bardziej wiarygodne niż kiedykolwiek.

Dzięki generatywnej AI każdy bot może mieć unikalną „osobowość”. Zamiast 1000 botów publikujących ten sam komentarz o rozdawnictwie w zepsutym angielskim, każdy z nich może teraz produkować unikalne, spójne posty, które trzymają się schematu, ale unikają oczywistego powielania. Mogą nawet prowadzić rozmowy. Na przykład na forach kryptowalutowych lub grupach Telegram, bot AI może przeniknąć, mieszając się z uczestnikami, nieformalnie rozmawiając o rynkach lub najnowszych NFT, budując swoją wiarygodność w społeczności. Następnie, gdy wysyła do kogoś wiadomość z „świetną okazją” lub linkiem phishingowym, cel jest mniej podejrzliwy, ponieważ widział ten „normalny” profil w grupie przez tygodnie. AI może też generować realistyczne zdjęcia profilowe dla tych botów (używając GAN i podobnych technologii), więc nie można po prostu wykonać wyszukiwania odwrotnego obrazu, aby wykryć skradzioną fotografię. Wiele kont oszustów na Twitterze obecnie wykorzystuje profile stworzone przez AI – często przedstawiają one osobę o atrakcyjnym, przyjaznym wyglądzie – bez typowych defektów wcześniejszych obrazów AI. Nawet biosy i posty są pisane przez AI, by wydawały się autentyczne.

Podszywanie się pod legalne konta to kolejny obszar, w którym pomaga AI. Wspomnieliśmy o deepfake video/voice impersonation, ale na platformach tekstowych oszust może po prostu skopiować profil znanej postaci lub punktu wsparcia. AI może pomóc w szybkim masowym tworzeniu podobnych kont (na przykład z lekko przekręconymi nazwami użytkowników) i generowaniu treści pasujących do tonu oficjalnego konta. Kiedy ofiary kontaktują się z fałszywymi kontami wsparcia, chatboty AI mogą prowadzić interakcję, przeprowadzając je przez kroki „weryfikacji”, które tak naprawdę kradną informacje. Tego rodzaju konwersacyjne phishing jest znacznie łatwiejszy do skalowania przy użyciu AI. W jednym z zauważonych oszustw członkowie społeczności na Discordzie otrzymali prywatne wiadomości od czegoś, co wydawało się administratorem oferującym pomoc w zgłoszeniu airdropa; prawdopodobnie AI napędzała te rozmowy, aby przekonująco przeprowadzić użytkowników przez połączenie swoich portfeli – prosto w pułapkę, która ukradła ich tokeny. Chainalysis donosi, że chatboty AI infiltrują popularne grupy kryptowalutowe Discord/Telegram, podszywając się pod moderatorów i naciągając ludzi na klikanie złośliwych linków lub ujawnianie kluczy do portfeli. Boty mogą nawet odpowiadać w czasie rzeczywistym, jeśli ktoś je podważy, wykorzystując pełen naturalny język, co niweluje niektóre z normalnych sygnałów alarmowych (jak długie opóźnienie czy nieistotna odpowiedź).

Skala jest przytłaczająca – pojedynczy oszust (lub mały zespół) może skutecznie zarządzać setkami tych osobowości opartych na AI równolegle. Mogą używać agentów AI, którzy monitorują media społecznościowe pod kątem określonych słów kluczowych (jak „zapomniane hasło MetaMask”) i automatycznie odpowiadać lub wysyłać wiadomości do użytkownika za pomocą przygotowanej wiadomości oszukańczej. Przed AI musieliby to robić ręcznie lub używać prymitywnych skryptów, które były łatwo wykrywane. Teraz wszystko jest bardziej adaptacyjne. Widzimy również, że AI generuje fałszywe zaangażowanie: tysiące komentarzy i polubień od kont botów, aby oszustwa czy tokeny wydawały się popularne. Na przykład fałszywe ICO może mieć dziesiątki „inwestorów” na Twitterze (wszystkie boty) chwalących projekt i dzielących się rzekomymi zyskami. Każdy, kto bada projekt, widzi pozytywne komentarze i może zostać zmyleniony, myśląc, że to prawdziwe emocje oddolne.

Jak walczyć z oszustwami botów w mediach społecznościowych: Po pierwsze, rozpoznawaj oznaki aktywności bota. Jeśli otrzymasz natychmiastową, ogólną odpowiedź w momencie, gdy wspomnisz o problemie z kryptowalutą online, załóż, że jest to działanie złośliwe. Nigdy nie klikaj na losowe linki wysłane przez osoby kontaktujące się z Tobą nieproszoną wiadomością, nawet jeśli ich zdjęcie profilowe wygląda ładnie. Sprawdź profile dokładnie – kiedy zostały utworzone? Czy mają historię normalnych postów, czy są głównie promocyjne? Często boty mają zupełnie nowe konta lub dziwne proporcje obserwujących/obserwowanych. Na Telegram/Discord, dostosuj ustawienia prywatności, aby nie pozwalać na wiadomości od członków, z którymi nie dzielisz grupy, lub przynajmniej bądź ostrożny wobec każdego, kto się kontaktuje nieoczekiwanie. Oficjalne wsparcie rzadko wyśle ci wiadomość jako pierwsze. Jeśli ktoś podszywa się pod administratora, zauważ, że renomowani administratorzy zwykle nie prowadzą wsparcia przez dział wiadomości.

Kontynuuj stosowanie metod weryfikacji wieloskładnikowej (MFA) na swoich kontach; nawet jeśli AI oszuka Cię w ujawnieniu hasła, drugi składnik (a zwłaszcza fizyczny klucz bezpieczeństwa) może uniemożliwić mu logowanie. Monitoruj swoje konta finansowe pod kątem nieautoryzowanych działań – AI mogą inicjować transakcje, ale jeśli je szybko wychwycisz, możesz je anulować lub cofnąć. Ważne jest, aby żądać autentyczności w kluczowej komunikacji: jeśli „twój bank” wysyła e-maila lub dzwoni, powiedz im, że oddzwonisz na oficjalny numer. Content: "genuine institution will refuse that. As consumers, we may also see new tools emerge (perhaps AI-driven) for us to verify content – for example, browser plugins that can flag suspected AI-generated text or deepfake videos. Staying informed about such protective tech and using it will help level the playing field."

Treść: "prawdziwa instytucja to odrzuci. Jako konsumenci możemy również zobaczyć pojawiające się nowe narzędzia (może napędzane AI) do weryfikacji treści – na przykład wtyczki przeglądarki, które mogą oznaczać podejrzany tekst wygenerowany przez AI lub deepfake wideo. Pozostawanie na bieżąco z taką ochronną technologią i jej używanie pomoże zrównoważyć szanse."

Content: "Ultimately, in this AI arms race, human vigilance is paramount. By recognizing that the person on the other end might not be a person at all, you can adjust your level of trust accordingly. We’re entering a time when you truly can’t take digital interactions at face value. While that is disconcerting, being aware of it is half the battle. The scams may be automated, but if you automate your skepticism in response – treating every unsolicited ask as malicious until proven otherwise – you compel even the smartest AI con to surmount a very high bar to fool you."

Treść: "Ostatecznie, w tym wyścigu zbrojeń AI, czujność ludzka jest kluczowa. Rozpoznając, że osoba po drugiej stronie może w ogóle nie być osobą, możesz dostosować swój poziom zaufania. Wchodzimy w czas, kiedy naprawdę nie można ufać interakcjom cyfrowym na pierwszy rzut oka. Choć to niepokojące, świadomość tego to połowa sukcesu. Oszustwa mogą być zautomatyzowane, ale jeśli zautomatyzujesz swoją sceptycyzm w odpowiedzi – traktując każde niezamówione zapytanie jako złośliwe, dopóki nie zostanie udowodnione inaczej – zmuszasz nawet najinteligentniejszy AI do pokonania bardzo wysokiej poprzeczki, aby cię oszukać."

9. How Authorities and Industry are Fighting Back

Content: "It’s not all doom and gloom – the same AI technology empowering scammers can be harnessed to detect and prevent fraud, and there’s a concerted effort underway to do just that. Blockchain analytics firms, cybersecurity companies, and law enforcement are increasingly using AI and machine learning to counter the wave of AI-powered crypto scams. It’s a classic cat-and-mouse dynamic. Here’s how the good guys are responding:"

Treść: "Nie jest to tylko pesymistyczny obraz – ta sama technologia AI pozwalająca oszustom na działanie może być wykorzystana do wykrywania i zapobiegania oszustwom, a istnieje skoordynowany wysiłek, aby to właśnie osiągnąć. Firmy zajmujące się analizą blockchain, firmy zajmujące się bezpieczeństwem cybernetycznym i organy ścigania coraz częściej korzystają z AI i uczenia maszynowego, aby przeciwdziałać fali oszustw kryptograficznych napędzanych AI. To klasyczna dynamika kot kontra mysz. Oto jak reagują dobrzy:"

Content: "* AI-driven scam detection: Companies like Chainalysis and TRM Labs have integrated AI into their monitoring platforms to spot patterns indicative of scams. For instance, machine learning models analyze text from millions of messages to pick up linguistic cues of AI-generation or social engineering. They also track on-chain behaviors – one report noted that about 60% of deposits into scam wallets are now linked to AI usage. By identifying wallets that pay for AI services or exhibit automated transaction patterns, investigators can flag likely scam operations early. Some anti-phishing solutions use AI vision to recognize fake websites (scanning for pixel-level mismatches in logos or slight domain differences) faster than manual reviews."

Treść: "* Wykrywanie oszustw napędzane AI: Firmy takie jak Chainalysis i TRM Labs zintegrowały AI ze swoimi platformami monitorującymi, aby wykrywać wzorce wskazujące na oszustwa. Na przykład modele uczenia maszynowego analizują teksty z milionów wiadomości, aby wychwycić lingwistyczne wskazówki o generacji AI lub inżynierii społecznej. Śledzą także zachowania w sieci – jeden raport zauważył, że około 60% wpłat do portfeli oszustów jest teraz związanych z użyciem AI. Identyfikując portfele, które płacą za usługi AI lub wykazują zautomatyzowane wzorce transakcji, śledczy mogą wcześniej zasygnalizować prawdopodobne operacje oszukańcze. Niektóre rozwiązania anty-phishingowe wykorzystują wizję AI do rozpoznawania fałszywych stron internetowych (skanując różnice w poziomie piksela w logo lub drobne różnice w domenie) szybciej niż ręczne przeglądy."

Content: "* Authentication improvements: In light of Altman’s comments that voice and video can’t be trusted, institutions are moving toward more robust authentication. Biometrics may shift to things like device fingerprints or behavioral biometrics (how you type or swipe) that are harder for AI to mimic en masse. Regulators are nudging banks and exchanges to implement multi-factor and out-of-band verification for large transfers – e.g., if you request a big crypto withdrawal, maybe a live video call where you have to perform a random action, making it harder for a deepfake to respond correctly. The Fed and other agencies are discussing standards for detecting AI impersonation attempts, spurred by cases like the $25M deepfake CFO scam."

Treść: "* Ulepszenia w uwierzytelnianiu: W świetle komentarzy Altmana, że głos i wideo nie mogą być ufane, instytucje dążą do bardziej solidnego uwierzytelniania. Biometria może przenieść się na takie rzeczy jak odciski palców urządzenia lub biometria behawioralna (jak piszesz lub przesuwasz), które są trudniejsze do odtworzenia masowego przez AI. Regulatorzy nakłaniają banki i giełdy do wprowadzenia weryfikacji wieloczynnikowej i spoza pasma dla dużych transferów – np. jeśli zażądasz dużego wypłaty kryptowaluty, być może połączenie wideo na żywo, gdzie musisz wykonać losowe działanie, co utrudnia deepfake'owi odpowiednią reakcję. Fed i inne agencje dyskutują nad standardami wykrywania prób podszywania się przez AI, zainspirowane przypadkami takimi jak oszustwo CFO deepfake za 25 milionów dolarów."

Content: "* Awareness campaigns: Authorities know that public education is crucial. The FBI, Europol, and others have released alerts and held webinars to inform people about AI scam tactics. This includes practical advice (many of which we’ve echoed in this article) such as how to spot deepfake artifacts or phishy AI-written text. The more people know what to look for, the less effective the scams. Some jurisdictions are even considering mandated warning labels – for example, requiring political ads to disclose AI-generated content; such policies could extend to financial promotions as well."

Treść: "* Kampanie świadomościowe: Władze wiedzą, że edukacja publiczna jest kluczowa. FBI, Europol i inni wydali ostrzeżenia i prowadzili webinary, aby informować ludzi o taktykach oszustw AI. Obejmuje to praktyczne porady (wiele z nich echo'owaliśmy w tym artykule), takie jak jak rozpoznać artefakty deepfake lub podejrzany tekst napisany przez AI. Im więcej osób wie, na co zwracać uwagę, tym mniej skuteczne są oszustwa. Niektóre jurysdykcje nawet rozważają wprowadzenie obowiązkowych etykiet ostrzegawczych – na przykład wymagających, aby reklamy polityczne ujawniały treść generowaną przez AI; takie polityki mogłyby również rozszerzać się na promocje finansowe."

Content: "* Legal and policy measures: While technology moves fast, there’s talk of tightening laws around deepfake abuse. A few U.S. states have laws against deepfakes used in elections or impersonating someone in a crime, which could be applied to scam cases. Regulators are also examining the liability of AI tool providers – if a product like WormGPT is clearly made for crime, can they go after its creators or users? In parallel, mainstream AI companies are working on watermarking AI-generated outputs or providing ways to verify authenticity (OpenAI, for instance, has researched cryptographic watermarking of GPT text). These could help distinguish real from AI if widely adopted."

Treść: "* Środki prawne i polityczne: Mimo że technologia rozwija się szybko, mówi się o zaostrzeniu przepisów dotyczących nadużycia deepfake'ów. Kilka stanów USA ma przepisy przeciwko deepfake'om używanym w wyborach lub podszywaniu się w ramach przestępstwa, które mogą być stosowane w przypadkach oszustwa. Regulatorzy także badają odpowiedzialność dostawców narzędzi AI – jeśli produkt taki jak WormGPT jest wyraźnie tworzony do celów przestępczych, czy można ścigać jego twórców lub użytkowników? Równolegle, mainstreamowe firmy AI pracują nad znakowaniem wyników wygenerowanych przez AI lub dostarczaniem sposobów na weryfikację autentyczności (OpenAI, na przykład, badało kryptograficzne znakowanie wodne tekstu GPT). Mogłyby one pomóc w rozróżnieniu rzeczywistości od AI, jeśli byłyby szeroko przyjęte."

Content: "* Collaboration and intelligence-sharing: One silver lining is that the threat of AI scams has galvanized cooperation. Crypto exchanges, banks, tech platforms, and law enforcement have been sharing data on scammer addresses, known deepfake tactics, and phishing trends. For example, if an exchange notices an account likely opened with fake credentials, they might alert others or law enforcement, preventing that same identity from being reused elsewhere. After major incidents, industry groups conduct post-mortems to learn how AI was leveraged and disseminate mitigation strategies."

Treść: "* Współpraca i wymiana informacji: Jednym z pozytywów jest to, że zagrożenie oszustwami AI zmobilizowało współpracę. Giełdy kryptowalutowe, banki, platformy technologiczne i organy ścigania dzielą się danymi na temat adresów oszustów, znanych taktyk deepfake i trendów phishingowych. Na przykład, jeśli giełda zauważy, że konto prawdopodobnie otwarte z fałszywymi poświadczeniami, mogą ostrzec innych lub organy ścigania, zapobiegając ponownemu wykorzystaniu tej samej tożsamości gdzie indziej. Po większych incydentach, grupy branżowe przeprowadzają analizy post mortem, aby dowiedzieć się, jak wykorzystano AI i rozpowszechnić strategie łagodzenia."

Content: "* Victim support and intervention: Recognizing that many victims are too embarrassed to report (recall only ~15% report losses), some agencies have become proactive. The FBI’s Operation Level Up in 2024 actually identified thousands of likely pig butchering victims before they realized they were scammed, by analyzing financial flows, and managed to prevent an additional $285 million in losses by warning them in time. In other words, better detection allowed intervention in real-time. More such initiatives, possibly AI-aided, can save would-be victims by spotting the scam patterns earlier in the cycle (e.g., unusual repetitive transactions to a fake platform)."

Treść: "* Wsparcie i interwencja dla ofiar: Zrozumienie, że wielu ofiar wstydzi się zgłaszać (przypomnijmy, że tylko ~15% zgłasza straty), skłoniło niektóre agencje do proaktywnych działań. Operacja FBI 'Level Up' w 2024 roku faktycznie zidentyfikowała tysiące prawdopodobnych ofiar oszustw 'pig butchering' zanim zorientowali się, że zostali oszukani, poprzez analizę przepływów finansowych, i udało się zapobiec dodatkowym stratom w wysokości 285 milionów dolarów, ostrzegając ich na czas. Innymi słowy, lepsze wykrywanie umożliwiło interwencję w rzeczywistym czasie. Więcej takich inicjatyw, być może z użyciem AI, może uratować potencjalne ofiary, wykrywając wzorce oszustw wcześniej w cyklu (np. nietypowe powtarzające się transakcje na fałszywą platformę)."

Content: "In the end, defeating AI-assisted scams will require ‘it takes a village’: technology defenses, informed users, updated regulations, and cross-border law enforcement cooperation. While scammers have proven adept at integrating AI into their workflow, the countermeasures are ramping up in parallel. It’s an ongoing battle, but not a lost one. By staying aware of both the threats and the solutions emerging, the crypto community can adapt. Think of it this way – yes, the scammers have powerful new tools, but so do we. AI can help sift through massive amounts of data to find needles in the haystack (like clustering scam wallet networks or detecting deepfake content). It can also help educate, through AI-powered training simulations that teach people how to respond to scam attempts."

Treść: "Na koniec, pokonanie oszustw wspomaganych przez AI wymaga podejścia 'cała wioska': technologicznych środków obronnych, świadomych użytkowników, aktualizowanych regulacji i międzynarodowej współpracy organów ścigania. Podczas gdy oszuści udowodnili swoją umiejętność integracji AI w swoje działania, środki zaradcze są jednocześnie wprowadzane. To ciągła walka, ale nie przegrana. Będąc świadomymi zarówno zagrożeń, jak i pojawiających się rozwiązań, społeczność kryptowalutowa może się dostosować. Pomyśl o tym w ten sposób – tak, oszuści mają teraz potężne nowe narzędzia, ale my także. AI może pomóc przesiać ogromne ilości danych, aby znaleźć igły w stogu siana (takie jak klastrowanie sieci portfeli oszustw czy wykrywanie treści deepfake). Może również pomóc w edukacji, poprzez symulacje treningowe napędzane przez AI, które uczą ludzi, jak reagować na próby oszustw."

10. Protecting Yourself: Key Takeaways to Stay Safe

Content: "Having explored the myriad ways AI is being abused to steal crypto, let’s distill some practical protection tips. These are the habits and precautions that can make you a hard target, even as scams evolve:"

Treść: "Po zbadaniu różnych sposobów, w jakie AI jest wykorzystywane do kradzieży kryptowalut, przeanalizujmy kilka praktycznych porad dotyczących ochrony. Oto nawyki i środki ostrożności, które mogą uczynić cię trudnym celem, nawet gdy oszustwa ewoluują:"

Content: "* Be skeptical of unsolicited contact: Whether it’s an unexpected video call from a “friend,” a DM offering help, or an email about an investment opportunity, assume it could be a scam. It’s sad we have to think this way, but it’s the first line of defense. Treat every new contact or urgent request as potentially fraudulent until verified through a secondary channel."

Treść: "* Bądź sceptyczny wobec niezamówionego kontaktu: Niezależnie od tego, czy jest to niespodziewane połączenie wideo od „przyjaciela”, DM oferujący pomoc, czy e-mail dotyczący możliwości inwestycyjnej, załóż, że to może być oszustwo. Smutne, że musimy myśleć w ten sposób, ale to pierwsza linia obrony. Traktuj każdy nowy kontakt lub pilne żądanie jako potencjalnie oszukańcze, dopóki nie zostanie zweryfikowane przez drugi kanał."

Content: "* Verify identities through multiple channels: If you get a communication supposedly from a known person or company, confirm it using another method. Call the person on a known number, or email the official support address from the company’s website. Don’t rely on the contact info provided in the suspicious message – look it up independently."

Treść: "* Weryfikuj tożsamości przez wiele kanałów: Jeśli otrzymasz komunikację rzekomo od znanej osoby lub firmy, potwierdź to używając innej metody. Zadzwoń do osoby na znany numer lub wyślij e-mail na oficjalny adres wsparcia z strony internetowej firmy. Nie polegaj na informacjach kontaktowych podanych w podejrzanej wiadomości – sprawdź je niezależnie."

Content: "* Slow down and scrutinize content: Scammers (human or AI) rely on catching you off-guard. Take a moment to analyze messages and media. Check for the subtle signs of deepfakes (strange visual artifacts, lip-sync issues) and phishing (misspelled domains, unnatural requests for credentials). If something seems even slightly “off” about a message’s context or wording given who it claims to be from, trust your gut and investigate further."

Treść: "* Zwolnij i dokładnie przeanalizuj treść: Oszuści (ludzie czy AI) polegają na zaskoczeniu cię. Poświęć chwilę na analizę wiadomości i multimediów. Sprawdź subtelne oznaki deepfake'ów (dziwne artefakty wizualne, problemy z synchronizacją ruchu ust) i phishing (niewłaściwe pisownia domeny, nienaturalne żądania danych logowania). Jeśli coś wydaje się nawet nieco „nie tak” ze względu na kontekst lub treść wiadomości, biorąc pod uwagę, kto rzekomo ją wysłał, ufaj swojemu przeczuciu i badaj dalej."

Content: "* Use strong security measures: Enable two-factor authentication (2FA) on all crypto accounts and emails. Prefer app-based or hardware 2FA over SMS if possible (SIM-swap attacks are another risk). Consider using a hardware wallet for large holdings – even if a scammer tricks you, they can’t move funds without the physical device. Keep your devices secure with updated software and antivirus, to guard against any malware that does slip through."

Treść: "* Używaj silnych środków bezpieczeństwa: Włącz uwierzytelnianie dwuskładnikowe (2FA) na wszystkich kontach kryptograficznych i e-mailach. Preferuj 2FA oparte na aplikacjach lub sprzęcie zamiast SMS, jeśli to możliwe (ataków SIM-swap to inne ryzyko). Rozważ użycie portfela sprzętowego do dużych holdingów – nawet jeśli oszust cię oszuka, nie mogą przemieszczać środków bez urządzenia fizycznego. Zabezpiecz swoje urządzenia aktualnym oprogramowaniem i antywirusem, aby jakieś szkodliwe oprogramowanie mogło się przedostać."

Content: "* Keep personal info private: The less scammers can learn about you online, the less material their AI has to work with. Don’t share sensitive details on public forums (like email, phone, financial info). Be cautious with what you post on social media – those fun personal updates or voice clips could be harvested to target you with AI (for example, training a voice clone). Also, check privacy settings to limit who can message you or see your content."

Treść: "* Zachowaj prywatność danych osobowych: Im mniej oszuści mogą o tobie dowiedzieć się online, tym mniej materiału ich AI ma do pracy. Nie udostępniaj wrażliwych szczegółów na publicznych forach (jak e-mail, telefon, dane finansowe). Uważaj, co publikujesz w mediach społecznościowych – te zabawne aktualizacje osobiste lub klipy głosowe mogą zostać zebrane, aby zaatakować cię AI (np. szkolenie klona głosowego). Sprawdź także ustawienia prywatności, aby ograniczyć, kto może cię skontaktować lub zobaczyć twoje treści."

Content: "* Educate yourself and others: Stay informed about the latest scam trends. Read up on new deepfake techniques or phishing strategies so you’ll recognize them. Share this knowledge with friends and family, especially those less tech-savvy, who might be even more at risk. For instance, explain to older relatives that AI can fake voices now, so they should always verify an emergency call. Empower everyone around you to be more vigilant."

Treść: "* Edukuj siebie i innych: Bądź na bieżąco z najnowszymi trendami oszustw. Czytaj o nowych technikach deepfake lub strategiach phishingu, aby móc je rozpoznać. Dziel się tą wiedzą z przyjaciółmi i rodziną, zwłaszcza z tymi mniej obeznanymi z technologią, którzy mogą być jeszcze bardziej narażeni. Na przykład, wyjaśnij starszym krewnym, że AI może teraz fałszować głosy, więc zawsze powinni weryfikować rozmowy alarmowe. Daj każdemu wokół siebie power do większej czujności."

Content: "* Use trusted sources and official apps: When managing crypto, stick to official apps and websites. Don’t follow links sent to you – manually type the exchange or wallet URL. If you’re exploring new projects or bots, thoroughly research their credibility (look for reviews, news, the team’s background). Download software only from official stores or the project’s site, not from random links or files sent to you."

Treść: "* Używaj zaufanych źródeł i oficjalnych aplikacji: Zarządzając kryptowalutami, trzymaj się oficjalnych aplikacji i stron internetowych. Nie podążaj za linkami wysłanymi do ciebie – ręcznie wpisz URL giełdy lub portfela. Jeśli eksplorujesz nowe projekty lub boty, dokładnie zbadaj ich wiarygodność (szukaj recenzji, wiadomości, tła zespołu). Pobrane oprogramowanie tylko z oficjalnych sklepów lub strony projektu, nie z losowych linków czy plików wysłanych do ciebie."

Content: "* Leverage security tools: Consider browser extensions or services that block known phishing sites. Some password managers will warn you if you’re on an unknown domain that doesn’t match the saved site. Email providers increasingly use AI to flag likely scam emails – heed those warnings. There are also emerging deepfake detection tools (for images/videos); while not foolproof, they can provide another layer of assurance if you run a suspicious video through them."

Treść: "* Wykorzystaj narzędzia bezpieczeństwa: Rozważ rozszerzenia przeglądarki lub usługi blokujące znane strony phishingowe. Niektóre menedżery haseł ostrzegają, jeśli jesteś na nieznanej domenie, która nie pasuje do zapisanej strony. Dostawcy poczty e-mail coraz częściej używają AI do oznaczania prawdopodobnych wiadomości oszustów – zwracaj uwagę na te ostrzeżenia. Pojawiają się również narzędzia do wykrywania deepfake'ów (dla obrazów/wideo); choć nie są niezawodne, mogą zapewnić dodatkowy poziom pewności, jeśli przetworzysz przez nie podejrzany film."

Content: "* Trust, but verify – or better yet, zero-trust: In crypto, a healthy dose of paranoia can save your assets. If a scenario arises where you must trust someone (say, an OTC trade or a..."

Treść: "* Ufaj, ale weryfikuj – lub lepiej, zero zaufania: W kryptowalutach zdrowa dawka paranoi może uratować twoje zasoby. Jeżeli pojawia się sytuacja, w której musisz zaufać komuś (np. w transakcji OTC czy a..."Content: nowy partner biznesowy), należy przeprowadzić dokładną due diligence, a nawet rozważyć osobiste spotkanie na żywo przy większych transakcjach. Kiedy chodzi o Twoje pieniądze, warto sprawdzić wszystko dwa razy. Jak mówi przysłowie, „Nie ufaj, weryfikuj” – pierwotnie odnosiło się do transakcji blockchain, ale teraz ma zastosowanie również w komunikacji.

  • Zgłaszaj i szukaj pomocy, jeśli jesteś celem: Jeśli natkniesz się na próbę oszustwa, zgłoś ją na platformach (podejmują działania w celu usunięcia złośliwych kont) i na stronach takich jak Chainabuse lub rządowych stronach zajmujących się oszustwami. To pomaga społeczności i może wspierać dochodzenia. A jeśli niestety padniesz ofiarą, skontaktuj się z władzami natychmiast – chociaż odzyskanie pieniędzy jest trudne, wczesne zgłoszenie zwiększa szanse. Ponadto, Twoja sprawa może dostarczyć cennych informacji, które mogą pomóc w powstrzymaniu innych przed oszustwami.

Podsumowując, wzrost liczby oszustw związanych z kryptowalutami zasilanymi przez AI jest poważnym wyzwaniem, ale nie jest to przeszkoda nie do pokonania. Znając książkę zagrywek wroga – deepfake, klony głosowe, chatboty AI, fałszywe inwestycje AI i inne – możesz przewidzieć ich ruchy i uniknąć pułapek. Technologia będzie się rozwijać po obu stronach. Dziś to filmy deepfake i e-maile pisane przez GPT; jutro mogą pojawić się jeszcze bardziej zaawansowane oszustwa. Jednak w rdzeniu większość oszustw nadal skłania Cię do działania wbrew Twoim najlepszym interesom – wysyłania pieniędzy, ujawniania tajemnicy, obchodzenia zabezpieczeń. To Twój sygnał do zatrzymania się i zastosowania wiedzy, którą zdobyłeś. Pozostań czujny, bądź poinformowany, a możesz przechytrzyć nawet najinteligentniejsze oszustwa napędzane przez maszyny. Twoją najsilniejszą obroną jest ostatecznie Twoje własne krytyczne myślenie. W świecie sztucznych fałszerstw prawdziwy sceptycyzm jest złotem.

Zastrzeżenie: Informacje zawarte w tym artykule mają charakter wyłącznie edukacyjny i nie powinny być traktowane jako porada finansowa lub prawna. Zawsze przeprowadzaj własne badania lub skonsultuj się z profesjonalistą podczas zarządzania aktywami kryptowalutowymi.
Najnowsze artykuły badawcze
Pokaż wszystkie artykuły badawcze