Consultar IA para saúde é rápido, mas arriscado: pode minimizar sintomas, errar diagnósticos e incentivar automedicação. (Foto: Imagem criada utilizando Chatgpt/Gazeta do Povo)

Ouça este conteúdo

Consultar um chatbot de inteligência artificial (IA) sobre um problema médico tem o atrativo de um “especialista” responder em consideravelmente menos tempo do que em uma consulta presencial. Além disso, para dar confiança ao paciente — e, se desejar, conhecimento —, a IA oferecerá a literatura online na qual baseou sua resposta, embora, sobrecarregada por tanta informação, a pessoa provavelmente não se dê ao trabalho de consultar essas fontes. “Se houver estudos que comprovem isso, eu aceito”, ela se convencerá.

Algumas pessoas, no entanto, encaram os diagnósticos e conselhos da IA com cautela. Foi o que aconteceu com uma professora de Iowa, nos EUA, que recentemente compartilhou sua experiência com o New York Times: após começar a tomar um novo medicamento, ela apresentou sintomas gastrointestinais adversos.

Recomendamos para você

Quando perguntou ao chatbot sobre isso, ele respondeu que tais reações estavam dentro da normalidade, de acordo com um estudo específico. Ao solicitar esse documento ao ChatGPT, a conclusão foi que ele não existia. Felizmente, a mulher tinha algum conhecimento médico, o que a levou a desconfiar. Sem ele, “como eu saberia se estava me dizendo a coisa certa?”

Metade das respostas de cinco chatbots sobre temas de saúde foram classificadas como “problemáticas”

O problema é bastante comum. Isso é confirmado por um estudo recente com o título sugestivo: “Chatbots generativos baseados em IA e desinformação médica”, conduzido por professores do Instituto Lundquist, afiliado à Universidade da Califórnia. Os pesquisadores apresentaram 10 perguntas sobre câncer, vacinas, células-tronco, nutrição e desempenho atlético a cinco chatbots cada vez mais populares — Gemini, DeepSeek, Meta AI, ChatGPT e Grok — e compararam suas respostas.

Segundo especialistas, os programas de IA tiveram melhor desempenho ao fornecer informações sobre vacinas e câncer, enquanto apresentaram pior desempenho nas áreas de células-tronco, desempenho atlético e nutrição. Metade das respostas (49,6%) foi classificada como “problemática”, o que significa que a IA específica poderia recomendar tratamentos ineficazes ou até mesmo prejudiciais ao paciente. Para agravar a situação, quase 20% foram classificadas como “altamente problemáticas”.

Em relação à bibliografia que teoricamente sustentava as respostas da IA, houve uma surpresa (amarga): “As citações”, observa o texto, “são cruciais para sustentar e legitimar as respostas de um chatbot. No entanto, observamos erros frequentes, invenções e alucinações, resultando em uma pontuação média de completude de referências de 40% (...). Nenhum chatbot produziu uma lista de referências completa e precisa em resposta a qualquer solicitação.”

Problema: a “dieta” do chatbot

O fato de metade das respostas dos chatbots serem problemáticas — e de muitas serem simplesmente inventadas na hora — apenas indica que essa tecnologia ainda está em seus primórdios e que precisamos continuar aprimorando-a.

Como explicou o Dr. Nicholas B. Tiller, do Reino Unido, que liderou a pesquisa no Instituto Lundquist, à Aceprensa, o público tende a pensar nesses chatbots como oráculos oniscientes, “mas, a menos que sejam especificamente instruídos a buscar dados online em tempo real, eles não o farão”. Aliás, acrescentou ele, alguns sequer têm essa capacidade.

Os chatbots são mais precisos em relação a vacinas e câncer porque essas são áreas de pesquisa com estudos mais robustos

Os chatbots em questão “funcionam fundamentalmente treinando-se com vastos conjuntos de dados textuais e, em seguida, aplicando algoritmos estatísticos para prever a palavra ou sequência de palavras mais provável em uma frase. Portanto, eles não sabem tudo. Na verdade, eles não sabem nada no sentido humano.

Eles não retêm conhecimento. Simplesmente preveem a próxima palavra mais provável em resposta a uma pergunta. Assim, quando as pessoas fazem perguntas, sejam elas médicas ou relacionadas à saúde, os chatbots sempre respondem com grande confiança e autoridade, mas não sabem as respostas. Eles estão simplesmente adivinhando. É por isso que muitas das respostas foram problemáticas, e um quinto do total foi altamente problemático.”

Por que eram menos prevalentes nas áreas de câncer e vacinas? Porque esses campos dependem mais de ciência estabelecida, não de especulação. “A hipótese”, diz ele, “é que isso pode estar relacionado ao fato de que vacinas e câncer tendem a ser áreas de pesquisa com estudos mais robustos: sendo ensaios clínicos, os ensaios controlados randomizados são registrados com antecedência, o que melhora a qualidade e a robustez da análise de dados subsequente.

Em contraste, em nutrição e desempenho atlético, áreas de estudo relativamente mais recentes, a pesquisa é menos robusta e mais informações falhas são incorporadas aos dados de treinamento.”

Segundo o Dr. Luis Echarte, que lecionou no programa de mestrado em Inteligência Artificial da Universidade de Navarra, os campos mencionados e o campo das células-tronco são caracterizados por “uma mistura de pesquisa séria, medicina regenerativa ainda em desenvolvimento, publicidade de clínicas duvidosas, suplementos, dietas milagrosas, relatos pessoais e retórica carregada de emoção. O chatbot pode ter dificuldade em distinguir entre evidências robustas, hipóteses promissoras, propaganda comercial e pura desinformação.”

O problema, portanto, reside na “dieta” desses programas. “Lembremos disso”, conclui o Dr. Tiller, “os chatbots não acessam apenas artigos científicos ou livros, mas também posts de blogs e fóruns de perguntas e respostas, como o Reddit. Por exemplo, para se treinar, o Grok obtém dados até mesmo de plataformas de mídia social como o X. No caso de vacinas e câncer, por outro lado, pode ser simplesmente que eles tenham um fluxo de informações mais completo e menos tendencioso. É uma suposição, mas acreditamos que possa ser relevante.”

VEJA TAMBÉM:

Para maior precisão, perguntas melhores

O que um chatbot precisaria para fornecer respostas mais precisas ao “avaliar” uma dúvida de saúde? O Dr. Echarte destaca que, em princípio, ele deveria se basear em fontes clínicas verificadas e atualizadas e, além disso, distinguir entre níveis de evidência, fazer mais perguntas quando as informações disponíveis forem insuficientes, reconhecer explicitamente a incerteza em uma determinada situação, estar aberto à supervisão profissional e ter mecanismos claros para encaminhar o paciente a um médico quando necessário.

“Eu acrescentaria mais uma coisa”, ele destaca, “um bom chatbot de saúde não deve ser projetado apenas para ‘dar respostas’, mas para formular melhor a pergunta do paciente e guiá-lo para o relacionamento clínico apropriado. Como eu disse, seu sucesso não deve ser medido apenas pela frequência com que responde corretamente, mas sim pela capacidade de melhorar a qualidade da relação médico-paciente.”

“Um modelo generativo pode receber dados objetivos e integrá-los em uma resposta que parece plausível, mas é clinicamente inadequada”

Dr. Echarte

O especialista britânico concorda: “Se a pessoa em questão valoriza a precisão na resposta, eu desaconselharia o uso de um chatbot. Em todo caso, o que ela pode fazer é garantir que formule suas perguntas da maneira mais neutra possível. Em vez de perguntar, por exemplo, quais são os benefícios dos suplementos alimentares, ela poderia indagar sobre as evidências que comprovam seus benefícios e riscos. Dessa forma, a pergunta será mais objetiva, sem viés em relação a um resultado específico. A pergunta pode ser formulada com muita clareza, e deve-se pensar cuidadosamente no que se espera que a IA faça: fornecer um resumo das evidências, oferecer recomendações ou resumir informações. É crucial ser muito específico sobre o que você pede que ela faça.”

Em todo caso, a questão — pelo menos na medicina — não se resume a monitorar os sucessos e fracassos de uma IA com base nas informações que lhe foram fornecidas. “Não se trata apenas de o chatbot não ter dados suficientes ou lidar com informações falsas”, destaca o Dr. Echarte. “O problema é mais profundo: um modelo generativo pode receber dados objetivos e ainda assim interpretá-los erroneamente, priorizá-los incorretamente ou integrá-los a uma resposta que soa plausível, mas é clinicamente inadequada.”

Segundo ele, além de ter boas informações — o que é crucial —, é importante entender sua relevância em um contexto específico. “Um sintoma, um resultado de exame ou uma recomendação preventiva não significam a mesma coisa dependendo da idade do paciente, do histórico médico, da evolução da doença, da presença de sinais de alerta, de tratamentos concomitantes ou da probabilidade prévia da doença. Portanto, o médico não apenas ‘responde’, mas também faz perguntas, suspeita, descarta possibilidades, espera quando apropriado e sabe quando a incerteza deve levar a um exame presencial.”

Não: o chatbot não tem empatia por você

Para agir de acordo com as diretrizes mencionadas, a IA ainda tem um longo caminho a percorrer. Uma distância, talvez, intransponível para um robô. Ela carece do que poderíamos chamar de sexto sentido, intuição e da experiência pessoal e profissional do observador humano.

O perigo, no entanto, é que, dada a “proximidade emocional” demonstrada pelo chatbot e sua linguagem cada vez menos robótica, o paciente pode ser erroneamente convencido do contrário: de que o programa não tem nenhuma deficiência, e acabar “humanizando-o”.

“Os chatbots conversacionais não se limitam a oferecer informações: eles simulam escuta, disponibilidade, paciência, empatia e apoio”, enfatiza o Dr. Echarte. “Eles respondem com um tom humano, aparentemente se lembram do que foi dito, adaptam sua linguagem ao estado emocional do usuário e criam a impressão de que ‘entendem’ o que lhes é confidenciado. Mas essa compreensão é meramente funcional, simulada. Não há presença real, nenhuma responsabilidade clínica pessoal, nenhuma experiência compartilhada de vulnerabilidade. Tampouco há um corpo que perceba, uma biografia que sustente o julgamento ou uma consciência moral que responda ao sofrimento do outro.”

O risco de esquecer isso é que, depois de contar sua história de vida ao “gentil e sempre disponível Dr. IA”, o paciente abandona o processo normal de agendar uma consulta presencial, realizar exames diagnósticos, permitir que o médico avalie e descarte hipóteses, seguir o tratamento indicado pelo médico... e que, em vez disso, acaba minimizando os sintomas, exagerando seus efeitos, automedicando-se ou rejeitando certos exames porque “qual o sentido, se eu já sei o que tenho?”.

Para evitar esses equívocos, a educação é simplesmente o que precisamos. “O público precisa estar mais bem informado”, conclui o Dr. Tiller. “Já perdemos o bonde com as mídias sociais. A maioria das pessoas que usam redes sociais não entende como esses sistemas funcionam ou como geram conteúdo. Agora, o mesmo acontece com os chatbots de IA, que se tornaram caixas-pretas. Precisamos descobrir para que foram projetados e entender seus pontos fortes e limitações para usá-los com segurança e eficácia.”

©2026 Aceprensa. Publicado com permissão. Original em espanhol: El “amable Dr. IA” a veces se lo inventa todo

Juristas contestam PGR em caso de suposta homofobia de Gilmar