ChatGPT pode substituir o seu médico? Especialistas explicam os riscos de se consultar com IA
Ferramentas de inteligência artificial podem confundir sintomas, atrasar atendimento e induzir automedicação, dizem médico e pesquisador
Cada vez mais pessoas recorrem a inteligências artificiais (IAs) como o ChatGPT para entender sintomas, buscar diagnósticos ou decidir se precisam procurar um médico. A prática, embora rápida e acessível, pode induzir ao erro, gerar pânico e comprometer tratamentos, segundo especialistas.
Para o médico vascular Vinicius Lain, do Conselho Regional de Medicina do Rio Grande do Sul (Cremers), esse comportamento já é uma rotina nos consultórios.
— Hoje, é muito frequente o paciente chegar para o atendimento e dizer que fez uma pesquisa, que já sabe o que tem e que inclusive sabe o que precisa tomar — afirma ele.
O conselheiro do Cremers alerta que, além de interferir na escuta clínica, esse hábito pode atrasar diagnósticos e comprometer o tratamento adequado.
— Muitas vezes, ele acaba não procurando o atendimento correto no tempo certo. E, quando chega, está em uma situação mais complexa, às vezes agravada por condutas que não foram orientadas por um profissional — relata.
Quais os riscos para o atendimento médico?
— O paciente joga em uma plataforma de inteligência artificial, recebe um diagnóstico e um suposto tratamento, e a partir dali segue o que achou que estava certo — afirma Lain.
Isso pode levar à automedicação — incluindo o uso indevido de remédios — e ao atraso no início de tratamentos necessários. Segundo o médico, a falsa segurança oferecida pelas ferramentas pode acabar postergando a busca por atendimento profissional.
Muitos ainda chegam à consulta ansiosos ou pressionando por exames, com base nas informações distorcidas.
— A maioria das vezes o paciente se assusta, vem com o pior prognóstico possível depois que pesquisou. E aí, vira uma urgência para marcar a consulta, o que acaba atrapalhando o acesso ao sistema de saúde. É positivo que se tenha acesso, mas acho que a informação precisa ser filtrada por um profissional de saúde — relata.
Como o ChatGPT cria respostas para dúvidas médicas?
Exemplo de "atendimento" no ChatGPT.ChatGPT / Reprodução
Apesar da linguagem técnica e da confiança no tom empregado ao responder, o ChatGPT nem sempre compreende a complexidade dos sintomas ou interpreta exames equadros clínicos.
Os sistemas são treinados com grandes volumes de dados, incluindo conteúdos sobre saúde, artigos públicos e fóruns. Porém, a ferramenta organiza palavras com base em padrões de textos da internet — ela tende a prever o que tem mais chance de vir a seguir em uma frase, sem entender exatamente o que está sendo dito.
— Quando alguém pergunta, o modelo interpreta a linguagem natural, identificando termos médicos e formulando uma resposta com base nos padrões aprendidos. É uma técnica chamada tokenização, que divide a frase em partes menores (tokens), e outra chamada embedding, que tenta entender o significado desses termos no contexto — explica Rodrigo Rios, professor da CESA.R School, mestre em design de artefatos digitais e doutorando em engenharia de software.
Na prática, isso significa que o sistema pode montar uma resposta com aparência médica — mas que pode estar descontextualizada ou incorreta para aquele caso específico. No entanto, o especialista ressalta que os modelos já são projetados para deixarem os usuários cientes que não substituem médicos e evitar conselhos "perigosos".
O que são "alucinações" de IA — e por que preocupam
No contexto da inteligência artificial, o termo "alucinação" é usado quando a IA apresenta informações falsas ou imprecisas como se fossem verdadeiras. A ferramenta pode mencionar doenças que não se aplicam ao caso, citar estudos inexistentes ou indicar condutas ultrapassadas.
Segundo Rios, isso acontece porque o modelo busca completar uma sequência textual, mesmo que não exista fundamento.
— Isso pode ocorrer com nomes de doenças, tratamentos, dados estatísticos e referências científicas que nunca existiram. Mesmo com avanço nos modelos de IA, nenhuma delas está completamente livre desse problema, por isso o uso exige responsabilidade — afirma.
Existem modelos que já são pensados para o uso na medicina. É o caso do Med-PaLM, desenvolvido pela Google, treinado com dados médicos validados por especialistas, com foco em precisão, segurança e capacidade de lidar com linguagem clínica.
Mesmo assim, segundo a Organização Mundial da Saúde (OMS), o uso dessas tecnologias em saúde deve ser sempre supervisionado por profissionais qualificados.
O que diz a regulação médica sobre o uso de IA?
Em maio de 2025, o Cremers publicou uma resolução sobre o uso ético e responsável da inteligência artificial na prática médica. A norma, inédita no Brasil, define que a IA pode ser utilizada como ferramenta de apoio, desde que com conhecimento e supervisão do profissional.
— A IA pode ser útil no apoio à documentação, à organização do raciocínio clínico ou até na checagem de informações. Mas ela nunca pode ser autônoma, não substitui a decisão do médico — afirma Lain.
A resolução também estabelece que o paciente deve ser informado sobre o uso da tecnologia e qualquer informação gerada deve ter validação de um médico responsável.
— Da mesma maneira que fazemos termos de consentimento pré-operatório, ou pré-tratamento, devemos fazer também antes do uso de IA no atendimento — explica.
A IA pode ser usada com segurança?
Tanto Rios quanto Lain concordam que a IA pode ter função complementar no processo de atendimento e cuidado ao paciente, desde que usada com limites claros:
— Melhorar a consulta, organizar dados e liberar o médico para olhar no olho do paciente. Mas jamais deve ser usada para substituir a relação médica — acrescenta Lain.
Segundo os especialistas, ela pode ajudar, por exemplo:
- Esclarecer termos médicos após a consulta
- Estruturar dúvidas antes de falar com o profissional
- Organizar informações pessoais de saúde, desde que não substitua o parecer médico
Mas não deve ser usada para:
- Diagnosticar doenças com base em sintomas genéricos
- Sugerir tratamentos ou prescrever medicamentos
- Substituir a consulta presencial com um profissional
Para além das consultas, Lain enxerga um papel estratégico da inteligência artificial no futuro da saúde pública — principalmente no uso inteligente de recursos e no combate ao desperdício.
— A grande oportunidade dessas tecnologias na saúde está na redução de desperdícios. Não é só sobre atender mais rápido, mas sobre conectar o paciente certo ao médico certo, no tempo certo — conclui.
Fonte: Gaúcha ZH
Foto: Rokas / stock.adobe.com
Outras notícias
-
Tempo dos 60+ na internet supera o de jovens; vício em telas preocupa especialistas
Envelhecimento da população brasileira caminha lado a lado com a digitalização da vida Uso excessivo de telas entre pessoas acima dos 60 anos preocupa especialistas e revela mais do que um hábito: é sin ...
Saiba Mais -
Queimaduras: veja cuidados para evitar acidentes em casa e no São João
O Dia Nacional de Luta Contra Queimaduras foi reconhecido nesta sexta-feira (6) como forma de conscientizar sobre os riscos e medidas de prevenção No Brasil, cerca de 1 milhão de pessoas sofrem com queimaduras, sendo que ...
Saiba Mais