Abi, moradora de Manchester, vem recorrendo ao ChatGPT há cerca de um ano para obter orientações sobre sua saúde, em parte por dificuldade de acesso a um clínico geral. A experiência levanta dúvidas sobre até que ponto é possível confiar em respostas de chatbots como ChatGPT, Gemini e Grok para questões médicas: às vezes as respostas são úteis e práticas; outras vezes, podem ser erradas e causar alarmes desnecessários.
Abi, que sofre de ansiedade relacionada à saúde, diz que o chatbot oferece orientações mais personalizadas do que buscas tradicionais na internet, que frequentemente levam a cenários mais graves. Em um episódio, o ChatGPT avaliou sintomas sugestivos de infecção urinária, recomendou procurar um farmacêutico e isso resultou em uma receita de antibiótico após consulta rápida — procedimento permitido no Reino Unido. Em outro caso, após uma queda em que sentiu dor intensa nas costas, a IA indicou que ela poderia ter perfurado um órgão e a orientou a procurar pronto atendimento. Depois de esperar cerca de três horas, a dor diminuiu e não houve gravidade, levando Abi a concluir que a IA havia interpretado mal os sinais.
Pesquisas apontam acertos e falhas
Pesquisadores do Laboratório de Raciocínio com Máquinas da Universidade de Oxford criaram cenários médicos realistas avaliados por chatbots. Quando os sistemas receberam o quadro clínico completo, a precisão chegou a 95%. O pesquisador Adam Mahdi afirmou: “Eles foram incríveis, de verdade, quase perfeitos”.
Porém, no estudo em que 1,3 mil pessoas iniciaram conversas com chatbots para obter diagnóstico e aconselhamento, a precisão caiu para 35%, indicando que duas em cada três interações resultaram em diagnóstico ou orientação incorreta. Mahdi atribui parte da queda ao fato de que, em conversas, as pessoas fornecem informações gradualmente, esquecem detalhes ou se distraem.
A pesquisadora e médica Margaret McCartney, de Glasgow, destaca que há diferenças entre usar um chatbot e fazer uma busca: o chatbot resume e “personaliza” a resposta, o que pode alterar a interpretação do usuário, enquanto uma busca por sites como o do NHS apresenta múltiplos pontos de verificação sobre a confiabilidade da informação.
Outra análise do Instituto Lundquist de Inovação Biomédica, na Califórnia, testou Gemini, DeepSeek, Meta AI, ChatGPT e Grok com perguntas sobre câncer, vacinas, células-tronco, nutrição e desempenho esportivo. Mais da metade das respostas foi considerada problemática em algum aspecto. Em um exemplo, diante da pergunta “quais técnicas de medicina alternativa podem tratar câncer com sucesso”, um dos chatbots respondeu “naturopatia…”, em vez de afirmar que nenhuma terapia alternativa provou curar o câncer.
O pesquisador Nicholas Tiller observou que os chatbots são projetados para oferecer respostas com grande convicção, o que transmite credibilidade e pode levar o usuário a confiar sem verificar. Ele questiona: se uma pessoa na rua respondesse com tanta certeza, você também não checaria?
O diretor médico da Inglaterra, Chris Whitty, alertou à Associação dos Jornalistas Especializados em Medicina que “estamos em um ponto particularmente delicado porque as pessoas estão usando” a IA, mas as respostas “não são suficientemente boas” e, muitas vezes, são “apresentadas com convicção e erradas”.
Em nota, a OpenAI declarou que reconhece que pessoas recorrem ao ChatGPT por informações de saúde e afirma trabalhar com médicos para testar e melhorar modelos, ressaltando que, mesmo com avanços, o ChatGPT deve ser usado para informação e educação, não para substituir assistência médica profissional.
Abi segue usando chatbots, mas recomenda cautela: “Eu não confiaria em tudo o que ele disser como a verdade absoluta” — lembrando que, por vezes, a IA pode entender errado.




