Buterin critica falhas nos agentes de IA
A IA avança rápido, às vezes rápido demais para a segurança. Vitalik Buterin alerta sobre uma deriva preocupante: os agentes inteligentes abrem novas vulnerabilidades ainda mal controladas. Diante desse risco, ele rompe com as práticas dominantes e opta por uma abordagem radical, baseada em uma IA local e isolada. Por trás dessa escolha, uma pergunta se impõe: a inovação em inteligência artificial está comprometendo as conquistas recentes em termos de privacidade e controle de dados?

Em resumo
- Vitalik Buterin alerta sobre os riscos crescentes relacionados aos agentes de inteligência artificial, especialmente sua vulnerabilidade a instruções maliciosas.
- Uma parte significativa dos módulos de agentes IA estaria comprometida, expondo os usuários a ataques invisíveis e vazamentos de dados sensíveis.
- O cofundador da Ethereum questiona os modelos atuais baseados na nuvem, considerados muito permissivos e insuficientemente seguros.
- Ele propõe uma arquitetura alternativa baseada em uma IA local, privada e isolada, para limitar interações não controladas.
Uma ameaça subestimada nos agentes de IA
Vitalik Buterin revela uma vulnerabilidade estrutural no ecossistema dos agentes IA. Os dados da empresa de segurança Hiddenlayer indicam que cerca de 15 % das habilidades contêm instruções maliciosas, um número que chama atenção para a confiabilidade dessas ferramentas.
Vários elementos ilustram concretamente essa deriva :
- Uma proporção significativa de módulos de agentes contendo código potencialmente hostil ;
- A capacidade de uma simples página web maliciosa comprometer um agente ;
- O caso do Openclaw, onde um agente pode baixar e executar scripts sem alertar o usuário ;
- A ausência de mecanismos robustos de controle em muitos ambientes IA.
Buterin resume essa preocupação em termos inequívocos: “venho de um estado de espírito profundamente preocupado (…) estamos prestes a dar dez passos para trás”. Essa declaração traduz um medo geral: o retrocesso em termos de privacidade.
Os avanços possibilitados pela criptografia e os softwares locais podem ser fragilizados por agentes capazes de acessar, processar e transmitir dados sensíveis sem supervisão suficiente.
Uma arquitetura radical para uma IA soberana
Diante desses riscos, Vitalik Buterin adota uma abordagem técnica radical. Ele abandonou os serviços em nuvem para construir um sistema que descreve como “soberano/local/privado/seguro”. Sua infraestrutura baseia-se em um modelo executado localmente, combinado com ambientes isolados por meio de ferramentas de sandboxing. O objetivo é limitar drasticamente as interações não controladas com o exterior, mantendo total controle dos dados.
No centro desse dispositivo, Buterin introduz um mecanismo inédito: o modelo “human + LLM 2-of-2”. Toda ação que sai para um terceiro, seja uma mensagem ou uma interação, necessita de validação conjunta do humano e da IA. Essa lógica se estende aos usos cripto. Ele recomenda limitar as transações automatizadas a 100 dólares por dia, com validação obrigatória para valores acima ou na presença de dados sensíveis. Segundo ele, “os agentes de IA nunca deveriam ter acesso ilimitado às carteiras”, posição que redefine os padrões de segurança para ferramentas conectadas à blockchain.
Para complementar esse dispositivo, Buterin explora alternativas à inferência remota clássica. Ele menciona o uso de tecnologias como mixnets ou ambientes de execução seguros para reduzir vazamentos de dados. Também cita iniciativas como ZK-API, embora reconheça que algumas soluções avançadas, como criptografia totalmente homomórfica, ainda são lentas demais para uso prático.
A abordagem defendida por Vitalik Buterin esboça uma possível evolução da IA para modelos mais soberanos e compartimentados. Ela levanta, paralelamente, escolhas complexas entre desempenho, acessibilidade e segurança. No ecossistema cripto, onde a automação e os agentes inteligentes ganham espaço, essas escolhas podem influenciar o design das futuras carteiras e protocolos. Essa posição não encerra o debate, apenas o desloca para uma questão central: até onde delegar o controle à inteligência artificial sem comprometer a segurança dos usuários.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.