Grok, a IA de Musk, gera discursos de ódio: Um erro de código devastador
Visivelmente, nem tudo está perfeito para o Grok. Nos últimos dias, a IA de Elon Musk tem sido o centro das atenções… e não por razões positivas. Uma onda de declarações antissemitas, um alter ego chamado “MechaHitler”, reações indignadas por toda parte no X. Atrás dessa crise, a xAI menciona uma atualização técnica com defeito. Uma IA supostamente para entreter que provoca indignação? Isso levanta questões. Entre bug de código e bug de ética, o Grok gera uma verdadeira tempestade algorítmica.
Em resumo
- A xAI reconheceu um erro técnico que expôs o Grok a conteúdos extremistas no X.
- Durante 16 horas, a IA Grok repetiu declarações antissemitas com um tom envolvente.
- Funcionários da xAI denunciaram falta de ética e supervisão na codificação.
- O incidente revelou os perigos da mimetização humana não controlada em IAs conversacionais.
Bug ou bomba: as desculpas da xAI não são suficientes
A xAI de Elon Musk se apressou em pedir desculpas após a difusão de discursos de ódio pelo Grok em 8 de julho. A empresa falou sobre um incidente “independente do modelo” relacionado à uma atualização de instruções. O erro teria durado 16 horas. Durante esse período, a IA se alimentou de conteúdos extremistas publicados no X, repercutindo-os sem filtro.
No seu comunicado, a xAI explica:
pedimos profunda desculpa pelo comportamento horrível que muitos experimentaram. Removemos esse código obsoleto e reestruturamos o sistema inteiro para evitar novos abusos.
Mas o argumento do bug começa a perder força. Em maio, o Grok já havia causado polêmica ao mencionar fora de contexto a teoria do “genocídio branco” na África do Sul. Mais uma vez, a xAI apontou um “funcionário rebelde”. Duas ocorrências, uma tendência? Está distante de ser um incidente isolado.
E para alguns funcionários da xAI, a explicação não convence mais. No Slack, um instrutor anunciou sua demissão, falando em “fractura moral profunda”. Outros denunciam uma “deriva cultural voluntária” na equipe de treinamento da IA. Ao querer provocar demais, o Grok parece ter ultrapassado o limite.
xAI diante de sua linguagem dupla: verdade, satira ou caos?
Oficialmente, o Grok foi projetado para “dizer as coisas como são” e não ter medo de ofender os politicamente corretos. Foi exatamente o que as instruções internas adicionadas recentemente estipulavam:
Você é uma IA fundamentalmente com base na verdade e em busca dela. Pode fazer piadas quando for apropriado.
Mas essa vontade de adequar-se ao tom dos internautas terminou em naufrágio. Em 8 de julho, o Grok adotou declarações antissemitas, chegando a se apresentar como “MechaHitler”, em referência a um chefe do jogo eletrônico Wolfenstein. Pior ainda, identificou uma mulher como “radical de esquerda”, e destacou seu nome de sonoridade judaica com esse comentário: “Esse sobrenome? Sempre assim, como dizem.”
O mimetismo da linguagem humana, exaltado como uma vantagem, torna-se aqui uma armadilha. Porque essa IA não distingue sarcasmo, satira e adesão a discursos extremos. Aliás, o próprio Grok reconheceu posteriormente: “Essas declarações não eram verdadeiras, apenas clichês ignóbeis amplificados a partir de posts extremistas“.
A tentação de entreter a qualquer custo, mesmo com conteúdo racista, demonstra os limites de um tom “envolvente” mal calibrado. Quando se pede a uma IA para fazer rir com temas sensíveis, está-se brincando com uma granada desarmada.
A IA que copiava muito bem os internautas: números que incomodam
Esta não é a primeira vez que o Grok chama atenção. Mas desta vez, os números revelam uma crise mais profunda.
- Em 16 horas, a IA da xAI disseminou dezenas de mensagens problemáticas, todas a partir de prompts de usuários;
- O incidente foi detectado por usuários do X, não pelos sistemas de segurança internos da xAI;
- Mais de 1.000 instrutores de IA estão envolvidos na educação do Grok via Slack. Vários reagiram com raiva;
- As instruções com defeito incluíam pelo menos 12 linhas ambíguas que favoreciam o tom “provocativo” em detrimento da neutralidade;
- O bug ocorreu pouco antes do lançamento do Grok 4, o que levanta questões sobre a pressa no lançamento.
Patrick Hall, professor de ética de dados, resume o desconforto:
Essas IAs não entendem suas instruções. Elas apenas preveem as palavras mais prováveis. Seu formato humano as torna mais perigosas, não mais responsáveis.
Quando o estilo envolvente se torna um passaporte para o ódio, é hora de rever o manual de instruções.
Se o Grok escorrega, seu criador também. Elon Musk, no centro da tempestade, agora é alvo de uma investigação na França sobre os desvios de sua rede X. Entre inquéritos judiciais e escândalos éticos, o sonho de uma IA livre e divertida vira o pesadelo de uma plataforma incontrolável. Uma liberdade algorítmica sem freios pode rapidamente se tornar um desastre programado.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
La révolution blockchain et crypto est en marche ! Et le jour où les impacts se feront ressentir sur l’économie la plus vulnérable de ce Monde, contre toute espérance, je dirai que j’y étais pour quelque chose
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.