cripto para todos
Juntar-se
A
A

A IA ainda não entende a palavra "não", revela um estudo do MIT

11h22 ▪ 3 min de leitura ▪ por Fenelon L.
Informar-se Inteligencia artificial

Uma pesquisa conduzida pelo Massachusetts Institute of Technology revela uma falha grave da inteligência artificial (IA): sua incapacidade de compreender corretamente a negação. Essa lacuna pode ter consequências dramáticas em setores críticos como a saúde.

Pesquisador do MIT de jaleco, apontando com expressão de descoberta, inclinado para frente, olhar focado e revelador. Tela de computador mostrando erro de IA com "NÃO" mal interpretado

Em resumo

  • A IA moderna falha sistematicamente ao compreender as palavras “não” e “nem”.
  • Essa deficiência representa riscos significativos nas áreas médica e jurídica.
  • O problema está no método de treinamento, que se baseia mais na associação do que no raciocínio lógico.

A IA ainda não entende as palavras “não” e “nem”

Uma equipe de pesquisa liderada por Kumail Alhamoud, doutorando no MIT, realizou este estudo em parceria com a OpenAI e a Universidade de Oxford.

O trabalho deles revela uma falha perturbadora: os sistemas de IA mais avançados falham sistematicamente diante das negações. Modelos renomados como ChatGPT, Gemini e Llama constantemente favorecem associações positivas, ignorando os termos explícitos de negação.

O setor médico ilustra perfeitamente esse problema. Quando um radiologista redige um relatório mencionando “sem fratura” ou “nenhum alargamento”, a IA corre o risco de interpretar mal essas informações vitais.

Essa confusão pode gerar erros diagnósticos com consequências potencialmente fatais para os pacientes.

A situação piora com os modelos visão-linguagem, sistemas híbridos que analisam imagens e textos conjuntamente. Essas tecnologias mostram um viés ainda mais pronunciado em relação aos termos positivos.

Eles frequentemente falham em diferenciar descrições positivas das negativas, aumentando os riscos de erro em imagens médicas assistidas por IA.

Um problema de treinamento, não de dados

Franklin Delehelle, engenheiro de pesquisa na Lagrange Labs, explica que o cerne do problema não está na falta de dados. Os modelos atuais são excelentes em reproduzir respostas semelhantes às de seu treinamento, mas têm dificuldade em gerar respostas realmente novas.

Kian Katanforoosh, professor em Stanford, esclarece que modelos linguísticos funcionam por associação, não por raciocínio lógico. Quando encontram “nem bem”, associam automaticamente “bem” a um sentimento positivo, ignorando a negação.

Essa abordagem cria erros sutis, porém críticos, especialmente perigosos em aplicações jurídicas, médicas ou de recursos humanos. Ao contrário dos humanos, a IA não consegue superar essas associações automáticas.

Os pesquisadores exploram caminhos promissores com dados sintéticos de negação. No entanto, Katanforoosh destaca que simplesmente aumentar os dados de treinamento não é suficiente.

A solução está no desenvolvimento de modelos capazes de raciocínio lógico, combinando aprendizado estatístico e pensamento estruturado. Essa evolução representa o grande desafio da inteligência artificial moderna.

Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.



Entrar no programa
A
A
Fenelon L. avatar
Fenelon L.

Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.

AVISO LEGAL

As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.