Notícias
Exchanges de Criptomoeda Enfrentam Ameaça de Autenticação de Contas com Deepfake
check_eligibility

Ganhe Acesso Exclusivo à Lista de Espera da Yellow Network

Junte-se Agora
check_eligibility

Exchanges de Criptomoeda Enfrentam Ameaça de Autenticação de Contas com Deepfake

Exchanges de Criptomoeda Enfrentam Ameaça de Autenticação de Contas com Deepfake

O mundo das criptomoedas enfrenta uma nova ameaça de IA, pois uma nova ferramenta deepfake agora pode ultrapassar a autenticação de dois fatores (2FA) em exchanges de criptomoedas. Isso abriu novos desafios de cibersegurança para as exchanges de criptomoedas, já que elas empregam tais métodos de autenticação 2FA para prevenir atividades fraudulentas e proteger os usuários.

Esta ferramenta deepfake, criada por um ator de ameaça chamado ProKYC, forja documentos de maneira eficaz e cria identidades e representações de vídeo falsas. Esta ferramenta utiliza tecnologia deepfake avançada para contornar desafios de reconhecimento facial.

Como resultado, esta ferramenta deepfake tem sido amplamente comercializada para cibercriminosos, pois eles facilmente criam contas de usuário verificadas em exchanges de criptomoedas usando-a. Hackers podem potencialmente usá-la para lavagem de dinheiro e outras atividades fraudulentas.

A American Association of Retired Persons (AARP) diz que a fraude de novas contas resultou em US$ 5,3 bilhões em perdas no ano passado em vários setores. O mercado de criptomoedas, conhecido por suas transações de alto valor e relativa anonimidade, apresenta um alvo atraente para cibercriminosos que empregam tais técnicas sofisticadas.

Cibercriminosos estão usando os documentos forjados e vídeos deepfake gerados por esta ferramenta para abrir contas falsas em exchanges de criptomoedas, ultrapassando o processo de autenticação por reconhecimento facial. Isso ocorre em um momento em que o crime relacionado a criptomoedas quebrou todos os recordes, atingindo US$ 20,1 bilhões em 2022.

Diante de tais desafios, as exchanges de criptomoedas devem mudar sua abordagem em relação à cibersegurança e desenvolver opções de segurança em camadas, incluindo sistemas de detecção de fraude habilitados por IA. De acordo com um estudo da IEEE, sistemas de detecção de fraude habilitados por IA podem identificar vídeos deepfake com precisão de 94% das vezes.

Como apontou Etay Maor, estrategista-chefe de segurança na Cato Networks, pode haver soluções melhores do que simplesmente apertar os processos de autenticação para as exchanges de criptomoedas. Sistemas de autenticação biométrica excessivamente restritivos podem levar a um aumento nos alertas falso-positivos, impactando potencialmente a experiência do usuário e a eficiência operacional.

Últimas Notícias
Mostrar Todas as Notícias
Notícias Relacionadas
Artigos Relacionados