cripto para todos
Juntar-se
A
A

IA : Sam Altman provoca “Goblin” após os avanços do Codex na OpenAI

Mon 11 May 2026 ▪ 6 min de leitura ▪ por Evans S.
Informar-se Inteligencia artificial
Resumir este artigo com:

Sam Altman coloca a IA da OpenAI novamente nos holofotes com um sinal duplo: Codex ganha autonomia, enquanto “Goblin” se impõe como uma piada que se tornou quase estratégica. Por trás do humor, surge um tema real: a OpenAI quer que seus modelos sejam agentes capazes de agir, não apenas de responder.

Ilustração mostrando Sam Altman surpreso diante da IA.

Em resumo

  • Sam Altman reacende o buzz em torno da IA com Codex e “Goblin”.
  • Codex mostra um progresso claro rumo a tarefas autônomas.
  • Agora a OpenAI precisa provar que seus modelos são poderosos, mas também melhor controlados.

Codex muda de categoria

Codex não é mais apenas um assistente que completa código. A ferramenta avança para um papel mais ambicioso: receber uma tarefa, organizá-la, executá-la e entregar um resultado utilizável. Esse movimento está inserido em uma aceleração mais ampla em torno da IA na OpenAI e sua estratégia a longo prazo.

A anedota contada por Sam Altman vai nessa direção. Ele diz ter iniciado várias tarefas no Codex, ido cuidar de seu filho e depois retornado para encontrar os trabalhos concluídos. A cena parece simples. Mas descreve uma mudança pesada.

No desenvolvimento de software, o verdadeiro ganho não vem apenas de uma linha de código escrita mais rápido. Vem do tempo humano liberado. Se a IA pode gerenciar várias solicitações em paralelo, o desenvolvedor se torna menos executor. Ele se torna supervisor, árbitro e corretor.

Essa mudança também altera a concorrência. A OpenAI não luta mais apenas contra chatbots. Ela enfrenta Anthropic, Google e outros players no campo dos agentes de trabalho. Onde a ferramenta dá menos respostas e realiza mais tarefas.

“Goblin”, uma piada que diz muito

A palavra “Goblin” não é um nome oficial de modelo. Por enquanto, é uma provocação feita por Sam Altman após trocas no X. Mas essa piada pegou, porque se encaixa numa estranheza recente dos modelos da OpenAI.

A empresa até publicou um relatório sobre a origem desses “goblins”. Alguns modelos teriam começado a usar com mais frequência metáforas relacionadas a goblins, gremlins e outras criaturas do mesmo tipo. Nada dramático. Mas o fenômeno mostra como um pequeno viés de estilo pode se espalhar.

Aí que o caso fica interessante. Uma IA não desenvolve uma personalidade como um humano. Ela amplifica sinais. Se um tom “nerd” recompensar demais certas imagens, elas reaparecem. Depois se instalam. Depois viram um tique.

Em um chat popular, isso pode fazer sorrir. Em uma ferramenta profissional, é mais delicado. Uma IA autônoma deve ser útil, mas também previsível. O folclore não cai bem quando se intromete no workflow de uma empresa.

OpenAI vende autonomia, mas precisa provar controle

A promessa da OpenAI agora se resume a uma palavra: agentes. A ideia é simples de formular. Muito mais difícil de cumprir. Uma IA agente deve entender uma solicitação, planejar etapas, usar ferramentas, verificar seu trabalho e retornar com um resultado claro.

Codex torna-se assim uma peça central da narrativa. Se a ferramenta pode finalizar tarefas de código sem supervisão constante, não serve mais apenas para acelerar desenvolvedores. Passa a mudar a forma como as equipes trabalham.

Mas a autonomia tem um preço. Quanto mais um modelo age sozinho, mais seus deslizes ficam visíveis. Uma resposta estranha numa conversa é um detalhe. Uma decisão estranha numa base de código pode provocar horas de correção.

Esse é o verdadeiro teste para a OpenAI. A potência bruta não basta mais. As empresas esperam coerência, rastreabilidade e resultados verificáveis. Um agente brilhante, mas caprichoso, continua difícil de vender.

O próximo modelo terá que ser mais que um buzz

Sam Altman sabe como criar atenção. “Goblin” é curto, estranho, memorável. A palavra funciona porque se parece com a Internet: um pouco absurda, um pouco zombeteira, muito viral. Mas a OpenAI não poderá se contentar com um nome que apenas faz sorrir.

O próximo modelo será julgado por sua capacidade de reduzir a distância entre demonstração e uso real. Usuários querem uma IA mais rápida, mais confiável, mais autônoma. Empresas querem, sobretudo, menos incerteza.

A frase de Altman sobre o modelo atual, descrito como um “gênio autista”, também mostrou os riscos da comunicação. Ela chama atenção, mas confunde a mensagem. A OpenAI deve vender desempenho, sem transformar seus modelos em personagens excessivamente humanos.

No fundo, “Goblin” resume bem o momento. A IA se torna mais poderosa, mas ainda é atravessada por estranhezas. Pode codificar, planejar, executar. E, às vezes, fala como uma criatura saída de um jogo de RPG antigo.

Essa tensão se junta a outra grande questão: o custo dessa corrida. Quanto mais avançados os modelos, mais pesada a infraestrutura. A OpenAI precisa provar, então, que seus avanços técnicos podem sustentar um modelo econômico sólido, assunto já visível nos debates sobre a fragilidade financeira da OpenAI face às necessidades massivas da IA.

Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.



Entrar no programa
A
A
Evans S. avatar
Evans S.

Fasciné par le bitcoin depuis 2017, Evariste n'a cessé de se documenter sur le sujet. Si son premier intérêt s'est porté sur le trading, il essaie désormais activement d’appréhender toutes les avancées centrées sur les cryptomonnaies. En tant que rédacteur, il aspire à fournir en permanence un travail de haute qualité qui reflète l'état du secteur dans son ensemble.

AVISO LEGAL

As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.