Noticias
Amenaza de autenticación de cuentas deepfake en intercambios de criptomonedas

Amenaza de autenticación de cuentas deepfake en intercambios de criptomonedas

Amenaza de autenticación de cuentas deepfake en intercambios de criptomonedas

El mundo de las criptomonedas enfrenta una nueva amenaza de IA, ya que una nueva herramienta deepfake ahora puede eludir la autenticación de dos factores (2FA) en intercambios de criptomonedas. Esto ha abierto nuevos desafíos de ciberseguridad para los intercambios de criptomonedas, ya que emplean tales métodos de autenticación 2A para prevenir actividades fraudulentas y proteger a los usuarios.

Esta herramienta deepfake creada por un actor de amenazas llamado ProKYC falsifica documentos de manera efectiva y crea identidades y representaciones de video falsas. Esta herramienta utiliza tecnología avanzada de deepfake para eludir los desafíos de reconocimiento facial.

Como resultado, esta herramienta deepfake ha sido ampliamente comercializada a los ciberdelincuentes, quienes crean fácilmente cuentas de usuario verificadas en intercambios de criptomonedas usándola. Los hackers podrían potencialmente usarla para lavar dinero y otras actividades fraudulentas.

La Asociación Americana de Personas Jubiladas (AARP) afirma que el fraude de cuentas nuevas resultó en pérdidas de $5.3 mil millones el año pasado en varios sectores. El mercado de criptomonedas, conocido por sus transacciones de alto valor y relativa anonimato, presenta un objetivo atractivo para los ciberdelincuentes que emplean tales técnicas sofisticadas.

Los ciberdelincuentes están usando los documentos falsificados y videos deepfake generados por esta herramienta para abrir cuentas falsas en intercambios de criptomonedas, eludiendo el proceso de autenticación de reconocimiento facial. Esto ocurre en un momento en que los crímenes relacionados con las criptomonedas rompieron todos los récords al alcanzar $20.1 mil millones en 2022.

Ante tales desafíos, los intercambios de criptomonedas deberían cambiar su enfoque hacia la ciberseguridad y desarrollar opciones de seguridad multinivel, incluidos los sistemas de detección de fraudes con IA. Según un estudio de IEEE, los sistemas de detección de fraudes habilitados por IA pueden identificar con precisión los videos deepfake el 94% del tiempo.

Como señaló Etay Maor, estratega jefe de seguridad en Cato Networks, puede que haya mejores soluciones que simplemente endurecer los procesos de autenticación para los intercambios de criptomonedas. Los sistemas de autenticación biométrica excesivamente restrictivos pueden provocar un aumento en las alertas de falsos positivos, impactando potencialmente en la experiencia del usuario y la eficiencia operativa.

Últimas noticias
Ver todas las noticias
Noticias Relacionadas