O CEO da Tether, Paolo Ardoino, sugere modelos de IA localizados como uma solução para prevenir ataques na blockchain. Ardoino argumenta que modelos de IA executáveis localmente são capazes de proteger a privacidade e a independência.
Segundo Ardoino, dispositivos modernos possuem potência suficiente para essa abordagem. Ele afirmou, "Smartphones e laptops podem ajustar modelos de linguagem de grande porte (LLMs) com os próprios dados do usuário, preservando as melhorias localmente no dispositivo."
Ardoino descreveu isso como uma "mudança de paradigma" na privacidade e independência do usuário.
"Ao rodar diretamente no dispositivo do usuário, seja um smartphone ou laptop, esses modelos eliminam a necessidade de servidores de terceiros. Isso não apenas garante que os dados permaneçam locais, aumentando a segurança e a privacidade, mas também permite o uso offline," disse Ardoino.
O chefe da Tether também enfatizou que os usuários poderiam manter o controle sobre suas informações.
Segundo ele, a Tether, emissora da principal stablecoin USDT, está explorando a integração de modelos executáveis localmente em suas soluções de IA.
A proposta segue um hack na OpenAI. Relatos indicam que um hacker acessou os sistemas de mensagens internas da OpenAI no início de 2023 e comprometeu detalhes do design de IA da empresa. Isso ocorreu antes de o ChatGPT ser lançado com enorme sucesso.
E esse não foi o único escândalo de segurança em torno dos problemas de segurança com a empresa de IA mais bem-sucedida. Recentemente, conversas do ChatGPT de usuários de macOS foram encontradas armazenadas em arquivos de texto simples não criptografados. Isso foi um grande problema, pois muitos usuários compartilham informações muito sensíveis nesses chats, incluindo dados financeiros privados e informações de trabalho.
Recentemente, a Apple anunciou planos para integrar o ChatGPT com seus produtos alimentados por IA "Apple Intelligence". O problema de criptografia foi supostamente resolvido. No entanto, permanecem dúvidas sobre por que isso ocorreu.