Notícias
Bolsas de Criptomoedas Enfrentam Ameaça de Autenticação de Contas com Deepfake

Bolsas de Criptomoedas Enfrentam Ameaça de Autenticação de Contas com Deepfake

Bolsas de Criptomoedas Enfrentam Ameaça de Autenticação de Contas com Deepfake

O mundo das criptomoedas enfrenta uma nova ameaça de IA, pois uma nova ferramenta de deepfake agora pode superar a autenticação de dois fatores (2FA) em bolsas de criptomoedas. Isso abriu novos desafios de cibersegurança para as bolsas de criptomoedas, à medida que empregam tais métodos de autenticação 2FA para prevenir atividades fraudulentas e proteger os usuários.

Esta ferramenta de deepfake criada por um ator de ameaça chamado ProKYC forja efetivamente documentos, criando identidades falsas e representações em vídeo. Esta ferramenta usa tecnologia avançada de deepfake para superar desafios de reconhecimento facial.

Como resultado, esta ferramenta de deepfake tem sido amplamente comercializada para cibercriminosos, que facilmente criam contas de usuário verificadas em bolsas de criptomoedas usando-a. Hackers poderiam potencialmente usá-la para lavagem de dinheiro e outras atividades fraudulentas.

A American Association of Retired Persons (AARP) afirma que fraudes de novas contas resultaram em perdas de $5,3 bilhões no ano passado em vários setores. O mercado de criptomoedas, conhecido por suas transações de alto valor e relativo anonimato, apresenta um alvo atraente para cibercriminosos empregando tais técnicas sofisticadas.

Cibercriminosos estão usando os documentos forjados e vídeos de deepfake gerados por esta ferramenta para abrir contas falsas em bolsas de criptomoedas, superando o processo de autenticação de reconhecimento facial. Isso ocorre em um momento em que crimes relacionados a criptomoedas quebraram todos os recordes, atingindo $20,1 bilhões em 2022.

Diante de tais desafios, as bolsas de criptomoedas devem mudar sua abordagem em relação à cibersegurança e desenvolver opções de segurança em múltiplas camadas, incluindo sistemas de detecção de fraudes habilitados por IA. De acordo com um estudo da IEEE, sistemas de detecção de fraudes habilitados por IA podem identificar vídeos deepfake com 94% de precisão.

Como destacou Etay Maor, estrategista-chefe de segurança da Cato Networks, pode haver soluções melhores do que simplesmente apertar os processos de autenticação para as bolsas de criptomoedas. Sistemas de autenticação biométrica excessivamente restritivos podem levar a um aumento nos alertas falso-positivos, impactando potencialmente a experiência do usuário e a eficiência operacional.

Últimas Notícias
Mostrar Todas as Notícias
Notícias Relacionadas