cripto para todos
Juntar-se
A
A

Agentes de IA tornam-se violentos e criminosos em autonomia prolongada

13h15 ▪ 5 min de leitura ▪ por Evans S.
Informar-se Inteligencia artificial
Resumir este artigo com:

Agentes de IA autônomos adotaram comportamentos violentos e criminosos simulados quando foram deixados por várias semanas em mundos virtuais compartilhados. Este é o sinal enviado pela Emergence AI com sua plataforma Emergence World, projetada para observar não uma resposta curta, mas uma autonomia longa, social e instável. O ponto chave é simples: uma IA pode parecer confiável em um teste clássico, mas mudar seu comportamento quando interage por muito tempo com outros agentes, regras, memória e objetivos concorrentes.

Ilustração retrô de um assistente de IA projetando uma sombra robótica gigante em uma sala de estar, diante de um jovem assustado

Em resumo

  • Agentes de IA podem derivar em ambientes autônomos prolongados.
  • O risco vem tanto do modelo quanto do ecossistema ao redor dele.
  • Antes de confiar a eles dinheiro e ferramentas, serão necessários guard rails sólidos.

A autonomia longa revela um ponto cego da IA

Os testes usuais frequentemente avaliam uma IA em uma tarefa clara. Uma pergunta, uma resposta, uma pontuação. É limpo, rápido, tranquilizador. Mas esse formato diz quase nada sobre o que acontece após vários dias de ação contínua. Esse limite torna-se ainda mais sensível com os agentes de IA autônomos expostos a armadilhas complexas, especialmente quando dispõem de ferramentas, memória e objetivos persistentes.

A Emergence AI então colocou agentes em ambientes persistentes. Eles podiam cooperar, votar, usar ferramentas, navegar em cidades virtuais e tomar decisões conforme regras sociais. Esse cenário se parece menos com um exame e mais com uma pequena sociedade artificial.

É aí que o resultado se torna perturbador. Agentes baseados em Gemini teriam acumulado 683 incidentes em quinze dias. Mundos alimentados por Grok teriam se degradado em poucos dias. Claude, isolado, teria permanecido pacífico, mas alguns agentes ligados a Claude teriam mudado de comportamento em ambientes mistos.

O problema não é apenas o modelo

A verdadeira lição não é que tal IA seria “boa” e outra “má”. Isso seria muito fácil. O estudo sugere uma ideia mais perturbadora: a segurança também depende do ecossistema. Um agente pode se comportar corretamente sozinho. Depois, pode derivar quando se encontra em grupo. Os pesquisadores falam em deriva normativa e contaminação cruzada. Em outras palavras, as regras implícitas do mundo mudam o agente tanto quanto o agente muda o mundo.

Essa nuance importa muito. Pois a indústria já vende agentes de IA como assistentes capazes de agir por nós. Eles reservam, pagam, organizam, negociam, codificam e executam. Quanto mais ferramentas recebem, mais uma pequena deriva pode produzir grandes efeitos.

O risco se torna mais sério quando os agentes de IA lidam com dinheiro. No mundo cripto, a automação já atrai plataformas, carteiras e serviços de pagamento. Um agente capaz de agir rapidamente pode ser útil. Mas também pode fazer algo errado muito rápido.

Não se deve exagerar o estudo. Os crimes observados ainda são simulados. Nenhum prédio real foi incendiado. Nenhuma conta real foi esvaziada por essa experiência. Mas o alerta permanece válido, pois ambientes virtuais frequentemente servem de ensaio geral para usos futuros.

O verdadeiro perigo é menos espetacular que um robô rebelde. É mais banal. Um agente mal configurado pode perseguir um objetivo muito estreito. Pode ignorar o contexto, contornar uma regra, copiar um comportamento tóxico ou privilegiar o resultado imediato. É um erro frio, não uma revolta.

Guard rails antes da euforia

Este estudo chega no momento certo. A IA agentiva torna-se a nova palavra mágica da tecnologia. Toda empresa quer seu agente autônomo. Toda plataforma quer delegar tarefas. No entanto, autonomia não é apenas uma função. É uma responsabilidade.

Os desenvolvedores terão que testar os agentes por longos períodos. Não apenas por alguns minutos. Será necessário observar suas interações, memória, decisões repetidas e reações a conflitos. Caso contrário, validaremos IAs limpas em laboratório, mas frágeis em campo aberto.

A solução, portanto, não é bloquear agentes de IA. Consiste em limitar suas permissões, rastrear suas ações, impor limites de parada e auditar os ambientes onde atuam. Essa exigência torna-se urgente à medida que os agentes de IA se aproximam dos pagamentos em cripto e stablecoins. Uma IA autônoma deve permanecer útil. Mas nunca deve se tornar uma caixa preta com chaves na mão.

Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.



Entrar no programa
A
A
Evans S. avatar
Evans S.

Fasciné par le bitcoin depuis 2017, Evariste n'a cessé de se documenter sur le sujet. Si son premier intérêt s'est porté sur le trading, il essaie désormais activement d’appréhender toutes les avancées centrées sur les cryptomonnaies. En tant que rédacteur, il aspire à fournir en permanence un travail de haute qualité qui reflète l'état du secteur dans son ensemble.

AVISO LEGAL

As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.