Médicos que dependem de IA se tornaram 20% piores em identificar riscos à Saúde, diz estudo
Ferramentas de assistência por IA se tornaram um recurso diário que ajudou a aumentar a produtividade e a velocidade em vários setores. Apesar dos benefícios notáveis desses sistemas inteligentes, especialistas médicos estão preocupados que a dependência excessiva da inteligência artificial possa estar causando mais mal do que bem.
Em resumo
- Um estudo mostra que médicos que dependem de IA em colonoscopias podem detectar menos irregularidades quando trabalham sem a ferramenta.
- Pesquisas revelam que a IA aumenta a eficiência, mas pode enfraquecer as habilidades de julgamento ao desencorajar o pensamento profundo e crítico.
- O acidente do voo 447 da Air France destaca os perigos da dependência excessiva da automação em ambientes de alto risco.
- Especialistas enfatizam os benefícios da IA, mas alertam as indústrias para manter a expertise humana para quando a automação falhar.
A dependência de IA pode reduzir as taxas de detecção dos médicos em colonoscopias
Um estudo recente realizado com 1.443 pacientes revelou que endoscopistas que usaram agentes de IA durante colonoscopias alcançaram uma taxa de sucesso menor na detecção de irregularidades quando essas ferramentas não foram usadas.
Resultados da pesquisa, publicada este mês no periódico Lancet Gastroenterology & Hepatology, mostram que esses médicos conseguiram uma taxa de sucesso de 28,4% na detecção de possíveis pólipos usando a tecnologia. Sem essas ferramentas, a cifra caiu para 22,4%, representando uma diminuição de 20% nas taxas de detecção.
Dr. Marcin Romańczyk, gastroenterologista do H-T Medical Center em Tychy, Polônia, e autor do estudo, expressou surpresa com os resultados. Ele apontou a dependência excessiva da inteligência artificial como um dos principais fatores que contribuíram para a queda nas taxas de detecção.
Fomos ensinados medicina por livros e por nossos mentores. Nós os observávamos. Eles nos diziam o que fazer. E agora existe algum objeto artificial sugerindo o que devemos fazer, onde devemos olhar, e na verdade não sabemos como agir naquele caso específico.
Dr. Marcin Romańczyk
O resultado não apenas capta os potenciais efeitos negativos de depender fortemente da inteligência artificial, como também aborda a evolução da prática médica de uma tradição focada no analógico para uma era digital.
Preocupações com a inteligência artificial no local de trabalho: ganhos de produtividade a um custo cognitivo
Além do aumento do uso em ambientes médicos e escritórios, a automação por IA tornou-se um elemento constante nos locais de trabalho, com muitos agora recorrendo a essas ferramentas para aumentar a produtividade. O Goldman Sachs chegou a prever em 2023 que a IA poderia aumentar a produtividade no trabalho em até 25%.
Mas adotar esses sistemas de IA também vem com o peso das desvantagens potenciais. De fato, pesquisas de empresas líderes destacaram os riscos associados a colocar fé excessiva nessas ferramentas.
Uma publicação da Microsoft e da Carnegie Mellon University observou que a IA ajudou a aumentar a eficiência no trabalho entre um grupo de trabalhadores do conhecimento pesquisados. Mas enfraqueceu suas habilidades de “julgamento atrofiado” e capacidade analítica.
Dependência excessiva de inteligência artificial na aviação: lições do voo 447 da Air France
Mesmo no setor de aviação, onde a segurança é primordial, evidências anteriores sugerem que a dependência excessiva da automação pode comprometer a segurança. Em 2009, o voo 447 da Air France, que seguia do Rio de Janeiro para Paris, caiu no Oceano Atlântico, resultando na perda de mais de 228 vidas.
Investigações posteriores revelaram que o sistema de automação da aeronave apresentou falhas. Isso fez com que o “diretor de voo” automatizado da aeronave transmitisse informações imprecisas. E como a tripulação não estava adequadamente treinada para voo manual, eles dependeram dos recursos automatizados da aeronave em vez de fazer os ajustes necessários.
Equilibrando a adoção de IA com a especialização humana em indústrias de alto risco
Lynn Wu, professora associada de operações, informação e decisões na Wharton School da Universidade da Pensilvânia, observou que esses incidentes são um alerta para a adoção de IA em setores onde a segurança humana é crítica. Wu explicou que, ao investir nessas tecnologias, as indústrias devem garantir que os trabalhadores estejam adotando essas ferramentas de maneira apropriada.
O que é importante é que aprendamos com essa história da aviação e da geração anterior de automação, que a IA pode absolutamente melhorar o desempenho. Mas, ao mesmo tempo, temos que manter essas habilidades críticas, de modo que quando a IA não estiver funcionando, saibamos como assumir o controle.
Lynn Wu
Ela acrescentou que se as pessoas perderem suas próprias habilidades, a inteligência artificial também terá um desempenho pior. Para que a IA melhore, os indivíduos também devem se aprimorar continuamente.
Romańczyk também aceita o uso de IA na medicina, observando que “a IA será, ou já é, parte de nossa vida, gostemos ou não.” Ainda assim, ele enfatizou a necessidade de entender como a inteligência artificial afeta o pensamento humano e instou os profissionais a determinar as maneiras mais eficazes de utilizá-la.
Maximize sua experiência na Cointribune com nosso programa "Read to Earn"! Para cada artigo que você lê, ganhe pontos e acesse recompensas exclusivas. Inscreva-se agora e comece a acumular vantagens.
James Godstime is a crypto journalist and market analyst with over three years of experience in crypto, Web3, and finance. He simplifies complex and technical ideas to engage readers. Outside of work, he enjoys football and tennis, which he follows passionately.
As opiniões e declarações expressas neste artigo são de responsabilidade exclusiva do autor e não devem ser consideradas como recomendações de investimento. Faça sua própria pesquisa antes de tomar qualquer decisão de investimento.