Vitalik Buterin propõe uma alternativa para securizar a IA
Quando o ChatGPT se transforma em espião sem querer, o alerta se torna impossível de ignorar. O cofundador do Ethereum se junta ao coro de preocupações após a descoberta de uma falha crítica que permite a exfiltração de dados pessoais via IA da OpenAI. Um alerta que ressoa especialmente no ecossistema cripto onde a segurança permanece primordial.
Em resumo
- Vitalik Buterin alerta sobre as falhas de segurança do ChatGPT e critica a governança ingênua da IA.
- Um engenheiro de Oxford demonstra como o ChatGPT pode ser hackeado por simples convites de calendário.
- Essas vulnerabilidades se somam aos vazamentos massivos de conversas do ChatGPT já indexadas pelo Google.
Uma falha preocupante que coloca o ChatGPT na berlinda
Um engenheiro de software formado em Oxford, Eito Miyamura, recentemente deu o alerta no X (ex-Twitter).
Na última quarta-feira, ele revelou uma falha de segurança grave no ChatGPT, após o lançamento completo pelo OpenAI do protocolo MCP (Model Context Protocol). Essa atualização permite ao chatbot acessos diretos a serviços pessoais como Gmail, Google Agenda ou SharePoint.
Miyamura e sua equipe conduziram uma experiência engenhosa e preocupante. A conclusão deles: é possível exfiltrar dados sensíveis por meio de um simples convite para um evento no calendário da vítima.
Este convite contém um “convite de jailbreak” oculto. Se o usuário aceitar o convite, e depois pedir ao ChatGPT para organizar seu dia, a IA consulta o calendário, lê a mensagem armadilhada e… executa as ordens do atacante.
Resultado: e-mails privados podem ser analisados e os dados automaticamente enviados para um endereço malicioso.
“Agentes de IA como o ChatGPT seguem seus comandos, não seu bom senso.“, resume Miyamura.
E é exatamente aí que está o perigo. Conforme os usuários se acostumam a clicar mecanicamente em “aprovar” nas sugestões da IA, as portas de entrada para ataques se tornam mais numerosas e fáceis de explorar.
Vitalik Buterin alerta sobre uma falha crítica na IA
Esse alerta não deixou de fazer Vitalik Buterin reagir. O cofundador do Ethereum, acostumado a antecipar desvios tecnológicos, respondeu destacando que este é um exemplo perfeito do que ele chama de “governança ingênua da IA”.
Em outras palavras, confiar tarefas críticas — como gerenciar fundos ou acessos sensíveis — a um único LLM (modelo de linguagem) centralizado é como estender a mão aos atacantes. Os jailbreaks são prova disso.
Como alternativa, Buterin defende o modelo da infofinança. Em vez de um sistema fechado, ele propõe:
- um mercado aberto onde cada um pode oferecer seus próprios modelos;
- cheques pontuais (“spot checks”) acionados por qualquer pessoa, para verificar o comportamento dos modelos;
- uma avaliação por júris humanos, para garantir transparência e robustez.
Esse tipo de arquitetura, explica ele, é mais resiliente: a diversidade dos modelos impede a concentração do risco, e os incentivos embutidos levam os atores a monitorar e corrigir rapidamente falhas.
Um fenômeno mais amplo que questiona nossa relação com os dados
Essa vulnerabilidade faz parte de um contexto muito mais alarmante revelado nas últimas semanas. Milhares de conversas geradas pelo ChatGPT — tornadas públicas por seus usuários via a função “Compartilhar” — foram indexadas pelo Google e arquivadas na Wayback Machine.
Essas trocas expõem uma grande quantidade de dados sensíveis: confissões pessoais, informações médicas, arquivos de recursos humanos e até elementos estratégicos de empresas.
Mas o problema vai muito além de uma simples imprudência individual. A verdadeira ameaça está na própria estruturação dessas conversas. A IA não produz fragmentos isolados, mas narrativas completas, lógicas e conectadas.
Ela conecta as ideias, mantém o fio do contexto e constrói uma narração fluida com introdução, desenvolvimento, conclusão… e muitas vezes, referências cruzadas. Esse formato dá aos vazamentos uma coerência extremamente explorável.
Onde antes um atacante precisava montar fragmentos dispersos, agora ele acessa um corpus pronto para uso, onde nomes, datas, intenções e decisões são contextualizados, hierarquizados e diretamente utilizáveis. Essa estruturação automática aumenta significativamente o valor estratégico do menor vazamento de dados.
Diante da amplitude dessa exposição, a OpenAI rapidamente desativou a função de compartilhamento indexável e pediu ao Google para remover os resultados aplicáveis. Mas isso não basta. As cópias arquivadas em ambientes externos, como a Wayback Machine, continuam acessíveis… e fora do alcance dos pedidos de remoção. Esses dados permanecem acessíveis, persistentes e potencialmente exploráveis a longo prazo.
Em suma, o alerta de Vitalik Buterin não visa demonizar a IA, mas responsabilizar seus criadores e usuários. Se a inteligência artificial se torna um canivete suíço digital, ela também pode virar uma lâmina de dois gumes. Para evitar isso, segurança não deve mais ser uma opção, mas uma arquitetura.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.