O CEO da Tether, Paolo Ardoino, sugere modelos de IA localizados como solução para prevenir hacks na blockchain. Ardoino argumenta que modelos de IA que podem ser executados localmente são capazes de proteger a privacidade e a independência.
Dispositivos modernos têm poder suficiente para essa abordagem, segundo Ardoino. Ele afirmou, "Smartphones e laptops podem ajustar modelos gerais de linguagem (LLMs) com os próprios dados do usuário, preservando aprimoramentos localmente no dispositivo."
Ardoino descreveu isso como uma "mudança de paradigma" na privacidade e independência do usuário.
"Ao rodar diretamente no dispositivo do usuário, seja um smartphone ou laptop, esses modelos eliminam a necessidade de servidores de terceiros. Isso não só garante que os dados permaneçam locais, aumentando a segurança e a privacidade, mas também permite o uso offline," disse Ardoino.
O chefe da Tether também enfatizou que os usuários poderiam manter o controle sobre suas informações.
Segundo ele, a Tether, emissora da stablecoin líder USDT, está explorando a integração de modelos executáveis localmente em suas soluções de IA.
A proposta vem após um hack na OpenAI. Relatórios indicam que um hacker acessou os sistemas de mensagens internos da OpenAI no início de 2023 e comprometeu detalhes do design de IA da empresa. Isso foi antes de o ChatGPT ser lançado com um sucesso massivo.
E esse não foi o único escândalo de segurança envolvendo questões de segurança com a empresa de IA mais bem-sucedida. Recentemente, conversas do ChatGPT de usuários do macOS foram encontradas armazenadas em arquivos de texto simples não criptografados. Isso foi um grande problema, pois muitos usuários compartilham informações muito sensíveis nesses chats, incluindo seus próprios dados financeiros privados e informações de trabalho.
A Apple anunciou recentemente planos para integrar o ChatGPT com seus produtos "Apple Intelligence" alimentados por IA. O problema de criptografia foi supostamente resolvido. No entanto, permanecem dúvidas sobre por que isso ocorreu.