ChatGPT pode substituir o seu médico? Especialistas explicam os riscos de se consultar com IA
Ferramentas de inteligência artificial podem confundir sintomas, atrasar atendimento e induzir automedicação, dizem médico e pesquisador
Cada vez mais pessoas recorrem a inteligências artificiais (IAs) como o ChatGPT para entender sintomas, buscar diagnósticos ou decidir se precisam procurar um médico. A prática, embora rápida e acessível, pode induzir ao erro, gerar pânico e comprometer tratamentos, segundo especialistas.
Para o médico vascular Vinicius Lain, do Conselho Regional de Medicina do Rio Grande do Sul (Cremers), esse comportamento já é uma rotina nos consultórios.
— Hoje, é muito frequente o paciente chegar para o atendimento e dizer que fez uma pesquisa, que já sabe o que tem e que inclusive sabe o que precisa tomar — afirma ele.
O conselheiro do Cremers alerta que, além de interferir na escuta clínica, esse hábito pode atrasar diagnósticos e comprometer o tratamento adequado.
— Muitas vezes, ele acaba não procurando o atendimento correto no tempo certo. E, quando chega, está em uma situação mais complexa, às vezes agravada por condutas que não foram orientadas por um profissional — relata.
Quais os riscos para o atendimento médico?
— O paciente joga em uma plataforma de inteligência artificial, recebe um diagnóstico e um suposto tratamento, e a partir dali segue o que achou que estava certo — afirma Lain.
Isso pode levar à automedicação — incluindo o uso indevido de remédios — e ao atraso no início de tratamentos necessários. Segundo o médico, a falsa segurança oferecida pelas ferramentas pode acabar postergando a busca por atendimento profissional.
Muitos ainda chegam à consulta ansiosos ou pressionando por exames, com base nas informações distorcidas.
— A maioria das vezes o paciente se assusta, vem com o pior prognóstico possível depois que pesquisou. E aí, vira uma urgência para marcar a consulta, o que acaba atrapalhando o acesso ao sistema de saúde. É positivo que se tenha acesso, mas acho que a informação precisa ser filtrada por um profissional de saúde — relata.
Como o ChatGPT cria respostas para dúvidas médicas?
Exemplo de "atendimento" no ChatGPT.ChatGPT / Reprodução
Apesar da linguagem técnica e da confiança no tom empregado ao responder, o ChatGPT nem sempre compreende a complexidade dos sintomas ou interpreta exames equadros clínicos.
Os sistemas são treinados com grandes volumes de dados, incluindo conteúdos sobre saúde, artigos públicos e fóruns. Porém, a ferramenta organiza palavras com base em padrões de textos da internet — ela tende a prever o que tem mais chance de vir a seguir em uma frase, sem entender exatamente o que está sendo dito.
— Quando alguém pergunta, o modelo interpreta a linguagem natural, identificando termos médicos e formulando uma resposta com base nos padrões aprendidos. É uma técnica chamada tokenização, que divide a frase em partes menores (tokens), e outra chamada embedding, que tenta entender o significado desses termos no contexto — explica Rodrigo Rios, professor da CESA.R School, mestre em design de artefatos digitais e doutorando em engenharia de software.
Na prática, isso significa que o sistema pode montar uma resposta com aparência médica — mas que pode estar descontextualizada ou incorreta para aquele caso específico. No entanto, o especialista ressalta que os modelos já são projetados para deixarem os usuários cientes que não substituem médicos e evitar conselhos "perigosos".
O que são "alucinações" de IA — e por que preocupam
No contexto da inteligência artificial, o termo "alucinação" é usado quando a IA apresenta informações falsas ou imprecisas como se fossem verdadeiras. A ferramenta pode mencionar doenças que não se aplicam ao caso, citar estudos inexistentes ou indicar condutas ultrapassadas.
Segundo Rios, isso acontece porque o modelo busca completar uma sequência textual, mesmo que não exista fundamento.
— Isso pode ocorrer com nomes de doenças, tratamentos, dados estatísticos e referências científicas que nunca existiram. Mesmo com avanço nos modelos de IA, nenhuma delas está completamente livre desse problema, por isso o uso exige responsabilidade — afirma.
Existem modelos que já são pensados para o uso na medicina. É o caso do Med-PaLM, desenvolvido pela Google, treinado com dados médicos validados por especialistas, com foco em precisão, segurança e capacidade de lidar com linguagem clínica.
Mesmo assim, segundo a Organização Mundial da Saúde (OMS), o uso dessas tecnologias em saúde deve ser sempre supervisionado por profissionais qualificados.
O que diz a regulação médica sobre o uso de IA?
Em maio de 2025, o Cremers publicou uma resolução sobre o uso ético e responsável da inteligência artificial na prática médica. A norma, inédita no Brasil, define que a IA pode ser utilizada como ferramenta de apoio, desde que com conhecimento e supervisão do profissional.
— A IA pode ser útil no apoio à documentação, à organização do raciocínio clínico ou até na checagem de informações. Mas ela nunca pode ser autônoma, não substitui a decisão do médico — afirma Lain.
A resolução também estabelece que o paciente deve ser informado sobre o uso da tecnologia e qualquer informação gerada deve ter validação de um médico responsável.
— Da mesma maneira que fazemos termos de consentimento pré-operatório, ou pré-tratamento, devemos fazer também antes do uso de IA no atendimento — explica.
A IA pode ser usada com segurança?
Tanto Rios quanto Lain concordam que a IA pode ter função complementar no processo de atendimento e cuidado ao paciente, desde que usada com limites claros:
— Melhorar a consulta, organizar dados e liberar o médico para olhar no olho do paciente. Mas jamais deve ser usada para substituir a relação médica — acrescenta Lain.
Segundo os especialistas, ela pode ajudar, por exemplo:
- Esclarecer termos médicos após a consulta
- Estruturar dúvidas antes de falar com o profissional
- Organizar informações pessoais de saúde, desde que não substitua o parecer médico
Mas não deve ser usada para:
- Diagnosticar doenças com base em sintomas genéricos
- Sugerir tratamentos ou prescrever medicamentos
- Substituir a consulta presencial com um profissional
Para além das consultas, Lain enxerga um papel estratégico da inteligência artificial no futuro da saúde pública — principalmente no uso inteligente de recursos e no combate ao desperdício.
— A grande oportunidade dessas tecnologias na saúde está na redução de desperdícios. Não é só sobre atender mais rápido, mas sobre conectar o paciente certo ao médico certo, no tempo certo — conclui.
Fonte: Gaúcha ZH
Foto: Rokas / stock.adobe.com
Outras notícias
-
Mercado de trabalho aquecido reduz tempo de busca por emprego no RS, mostra IBGE
Dados do segundo trimestre de 2025 também indicam queda no número de pessoas que desistiram de buscar ocupação no Estado Após meses de pesquisas de vagas, entrevistas e espera, finalmente chegou o retorno aguardado ...
Saiba Mais -
EAD não aumentou a escolaridade no Interior e ajudou a desarticular o movimento estudantil
Modalidade ganhou novo marco regulatório e passará por transformações nos próximos anos Ainda desafiador no Brasil, o acesso ao Ensino Superior não registrou aumento na escolaridade de moradores de município ...
Saiba Mais