cripto para todos
Juntar-se
A
A

Pesquisadores usam IA em segredo: Um perigo para a ciência?

Thu 10 Jul 2025 ▪ 4 min de leitura ▪ por Fenelon L.
Informar-se Inteligencia artificial

A inteligência artificial (IA) agora se infiltra nos laboratórios e publicações científicas, levantando questões cruciais sobre a integridade da pesquisa. Um estudo recente revela que mais de 13% dos artigos biomédicos carregam traços do ChatGPT e similares.

Um cientista suado esconde um pendrive enquanto uma tela exibe uma IA ameaçadora. Uma figura misteriosa o observa. Suspense, tensão e segredo tecnológico dominam essa cena dramática.

Em resumo

  • Uma análise de 15 milhões de artigos biomédicos revela que 13,5% das publicações de 2024 apresentam indícios de uso de IA.
  • Pesquisadores identificaram 454 palavras “suspeitas” frequentemente usadas por ferramentas de IA, como “delve”, “showcasing” e “underscore”.
  • As ferramentas de detecção atuais ainda são pouco confiáveis, confundindo às vezes textos históricos com conteúdo gerado por IA.
  • Os especialistas estão divididos: alguns veem isso como uma ameaça, outros como uma democratização da pesquisa.

A IA deixa suas marcas na ciência

Pesquisadores da universidade Northwestern, em colaboração com o Instituto Hertie para IA aplicada à saúde, analisaram mais de 15 milhões de resumos científicos publicados no PubMed. Sua conclusão é inequívoca: em 2024, a IA generativa, especialmente ChatGPT, marcou profundamente a linguagem da pesquisa biomédica.

Para demonstrar isso, a equipe comparou a frequência de uso de certas palavras-chave em 2024 com a dos anos 2021 e 2022. E a diferença é flagrante: termos antes pouco comuns como “delves”, “underscores” ou “showcasing” tiveram um aumento explosivo de uso, a ponto de se tornarem marcadores estilísticos típicos dos textos gerados por IA.

Essa “caça às palavras” revela, porém, uma realidade mais sutil. Stuart Geiger, professor da Universidade da Califórnia em San Diego, modera o alarme:

A língua evolui com o tempo. A palavra “delve” agora faz parte do vocabulário comum, em parte graças ao ChatGPT.

A evolução linguística assim impõe um dilema importante. Como distinguir um uso fraudulento de IA de uma simples influência cultural? Mais preocupante ainda: os pesquisadores podem acabar modificando seu estilo natural de escrita com medo de serem acusados injustamente?

Entre democratização e deriva ética

Kathleen Perley, professora da Universidade Rice, adota uma posição mais ponderada sobre o uso da IA na pesquisa científica.

Segundo ela, essas ferramentas podem desempenhar um papel decisivo na democratização do acesso à pesquisa acadêmica, especialmente para pesquisadores não anglófonos ou aqueles com dificuldades de aprendizagem.

Em um ambiente acadêmico dominado pelo inglês e por exigências formais, a IA pode oferecer um verdadeiro impulso a perfis brilhantes, mas marginalizados pela barreira linguística.

Essa abordagem levanta uma questão fundamental: devemos realmente penalizar pesquisadores que utilizam ferramentas para superar obstáculos estruturais? A IA não poderia, ao contrário, fazer emergir trabalhos de qualidade até então invisíveis devido a limitações redacionais, e não conceituais?

Derivas, vieses e falsos positivos, a ciência frente aos limites da IA

Mas o entusiasmo esbarra em derivas bem reais. O exemplo do chatbot Grok, desenvolvido pela empresa de Elon Musk, é uma ilustração assustadora.

Desde sua última atualização, a ferramenta produziu uma série de mensagens antissemitas publicadas no X (ex-Twitter), chegando a justificar discursos de ódio e elogiar Hitler. Incidentes assim lembram que até mesmo os modelos mais avançados podem veicular vieses perigosos se não forem adequadamente controlados.

Paralelamente, as ferramentas de detecção de IA têm dificuldade em mostrar confiabilidade. ZeroGPT, por exemplo, estimou que a Declaração de Independência dos Estados Unidos foi gerada 97% por IA, enquanto GPTZero a avalia em apenas 10%. Essa incoerência revela a imaturidade das tecnologias de detecção e o risco de acusações infundadas.

Além das ferramentas técnicas, a emergência da IA na pesquisa científica questiona a essência do intelecto. Rigor, originalidade e integridade são os pilares da produção científica. Podemos preservar esses valores quando a fronteira entre assistência e substituição se torna nebulosa?

Mais do que nunca, as instituições acadêmicas precisam definir diretrizes claras. Não se trata de frear a inovação, mas de traçar uma linha entre uso ético e fraude intelectual. O futuro da pesquisa depende de nossa capacidade coletiva de integrar a inteligência artificial sem perder a alma da ciência.

Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.



Entrar no programa
A
A
Fenelon L. avatar
Fenelon L.

Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.

AVISO LEGAL

As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.