IA avança na saúde, mas uso indiscriminado ainda traz riscos
Bons Fluidos

O Conselho Federal de Medicina (CFM) publicou, no último dia 27 de fevereiro, uma resolução que regulamenta o uso da inteligência artificial (IA) na prática médica no Brasil. A norma estabelece que a decisão diagnóstica, terapêutica e prognóstica deve permanecer sob responsabilidade do médico. O profissional deve, portanto, supervisionar o uso dessas ferramentas e informar o paciente quando elas forem utilizadas como apoio relevante.
GPT Health
A medida ocorre em meio à rápida expansão de sistemas conversacionais voltados ao público. Em janeiro, o ChatGPT, sistema de IA generativa da empresa estadunidense OpenAI, ganhou uma funcionalidade exclusiva para a saúde: o GPT Health. A ferramenta foi desenhada para apoiar o usuário na compreensão de exames, no preparo para consultas e no acompanhamento de cuidados. Segundo a empresa, trata-se de um recurso exclusivamente informacional, com salvaguardas de privacidade e sem uso dos dados para treinamento de modelos.
As novidades formalizam uma tendência já em curso. De acordo com a própria OpenAI, mais de 230 milhões de pessoas fazem perguntas sobre saúde e bem-estar no ChatGPT toda semana. No Brasil, um estudo da Fundação Oswaldo Cruz (Fiocruz) de 2025 com 200 pacientes e 92 médicos identificou que 85,6% das pessoas pesquisaram informações de saúde na internet.
Mas, se por um lado essa prática ajuda o paciente a ter acesso a mais informações, por outro, pode gerar medo e preocupação desnecessários, além de impactar o atendimento. “Os pacientes já chegam no consultório com a informação que muitas vezes é obtida de uma IA. Então, o médico tem que conhecer isso para orientá-los melhor”, afirma o médico Edson Amaro, superintendente de Dados Globais e Tecnologias Avançadas para Equidade do Einstein Hospital Israelita.
A tecnologia já permeia todo o ciclo do cuidado, da prevenção ao acompanhamento de doenças crônicas, apoiando decisões clínicas e a gestão de dados. Contudo, o uso autônomo dessas ferramentas por leigos levanta dúvidas sobre segurança e impacto real na tomada de decisões em saúde.
Além dos chatbots
Modelos de linguagem (também conhecidos pela sigla em inglês LLM, que significa large language models), como os do GPT, geram respostas a partir de texto e dependem da qualidade da interação com o usuário. Já ferramentas de visão computacional e modelos clínicos são desenvolvidos para operar em contextos mais controlados, com dados estruturados e supervisão profissional.
Um dos principais avanços práticos está na organização e tradução da informação médica. De acordo com um estudo publicado em maio de 2025 no Communications Medicine, o uso do modelo GPT-4o para simplificar 60 resumos de alta hospitalar cardiológicos aumentou significativamente a clareza e a compreensão do conteúdo para os pacientes. A avaliação realizada por 12 especialistas médicos confirmou que essas versões simplificadas mantiveram altos índices de correção (85%) e integridade clínica, sem comprometer a segurança da informação.
Efeitos da IA
Há também avanço no apoio ao diagnóstico e à tomada de decisão clínica. Uma metanálise de 50 estudos, publicada em janeiro no npj Digital Medicine, demonstrou que profissionais de saúde apoiados por modelos de linguagem superam o desempenho daqueles que trabalham de forma isolada, alcançando maior precisão diagnóstica. O estudo ressalta que essas ferramentas são mais eficazes como instrumentos de aumento cognitivo e apoio técnico, visto que esses modelos ainda não estão prontos para realizar diagnósticos de maneira independente.
“O mundo contemporâneo é fortemente alavancado por soluções de inteligência artificial. Na saúde não é diferente”, observa Amaro. “O principal risco é o profissional não saber o que está fazendo. As pessoas que usam IA têm que estar treinadas para entender suas deficiências, porque esta ferramenta não é 100% precisa.” Ele defende que existam mecanismos “de contingência e contenção”. “Contingência é um planejamento de como agir quando acontecer algo e, assim, você já sabe de antemão o que fazer. E contenção é um processo para, antes de algo acontecer, você já estar preparado e evitar consequências inadequadas”, explica.
Além do cuidado direto, a inteligência artificial também tem gerado ganhos relevantes na gestão de sistemas de saúde. Amaro aponta como exemplo o Einstein, que já utiliza algoritmos para predição de risco, otimização de exames, redução de desperdício e gestão de recursos hospitalares.
IA não é médico
Mas a expansão do uso de IA na saúde não significa que todas as aplicações tenham o mesmo nível de segurança. No caso de ferramentas conversacionais voltadas ao público, a exemplo do GPT Health, o desafio está na forma como a informação é produzida e apropriada por quem não tem formação médica.
Isso porque modelos de linguagem são sistemas de propósito geral, treinados para responder sobre diferentes temas, e não ferramentas especializadas. “Esses modelos são treinados para escrever coisas que façam sentido do ponto de vista de linguagem, não necessariamente corretos do ponto de vista técnico”, pondera Telma Soares, diretora-executiva do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG). “Dependendo, podem ser até alarmistas. Se você estiver em tratamento, fazendo uma série de exames, e colocar só o último [exame], não necessariamente a IA vai dar um resultado mais exato. Ela deveria ser usada como apoio para a pessoa entender melhor aquele assunto.”
Um estudo recém-publicado na Nature Medicine testou 10 cenários médicos com 1.298 participantes e concluiu que, na prática, o uso de modelos de IA para autoavaliação em saúde enfrenta limitações relevantes. Segundo a pesquisa, quando avaliados isoladamente, os modelos identificaram corretamente as condições clínicas em 94,9% dos casos. Na interação com usuários, porém, o desempenho caiu: em cenários de uso combinado com humanos, as IAs reconheceram menos de 34,5% das condições de saúde relevantes.
Os autores apontam que o principal problema está na troca incompleta de informações e na dificuldade dos modelos em comunicar respostas corretas de forma compreensível. “A IA nunca vai eliminar a busca por um profissional médico, mas pode ajudar o paciente a chegar com as perguntas certas e até a procurar o especialista adequado”, pondera Soares.
Como pacientes usam a tecnologia?
Esse padrão antecede a popularização das IAs. Em 2003, um estudo do Journal of Medical Internet Research já havia mostrado que pacientes recorrem à internet para interpretar sintomas e reduzir incertezas. Segundo a análise, 69% daqueles que fazem perguntas online buscavam, na verdade, um aconselhamento personalizado para sua situação.
Impactos da pesquisa
Poucos anos depois, um estudo publicado no The Journal of the American Board of Family Medicine identificou que 79% dos pacientes pesquisavam doenças ou condições específicas na internet. O trabalho também mostrou impacto direto na consulta: 54% dos usuários discutiam as informações encontradas com seus médicos para verificar se estavam corretas, o que frequentemente exigia mais tempo de atendimento para contextualizar o que o paciente havia lido e corrigir interpretações equivocadas.
A diferença no cenário atual é que as IAs oferecem respostas contínuas, personalizadas e com aparência de autoridade, o que tende a intensificar esses efeitos. “Percebo os pacientes mais ansiosos e muitas vezes muito seguros daquilo. Isso dificulta criarmos uma relação e fazermos as negociações dentro da consulta sobre o que pedir e o que não pedir de exame, por exemplo”, conta Marques. Para ela, o papel do médico é acolher. “Tudo bem as pessoas pesquisarem, porque isso dá a elas acesso a informações sobre saúde, o que ajuda de certa forma na autonomia e na autorresponsabilidade”, analisa a médica de família e comunidade.
Novos riscos
Embora ansiedade, autodiagnóstico e pressão sobre a consulta médica sejam fenômenos conhecidos desde a popularização da internet, estudos recentes sugerem que as IAs — especialmente as de modelos de linguagem — introduzem novos mecanismos de risco ligados à forma como a informação é produzida, apresentada e analisada.
Um deles é a tendência de validar premissas equivocadas, fenômeno conhecido como sycophancy, no qual os modelos priorizam concordar com o usuário em vez de aplicar raciocínio crítico. Um estudo publicado em 2025 mostrou que, quando uma afirmação clinicamente falsa é apresentada na própria pergunta, os modelos frequentemente a aceitam como válida e constroem a resposta a partir dela, em vez de corrigi-la. Em saúde, esse comportamento pode reforçar erros e transformar suposições em aparentes “verdades médicas”, sobretudo quando formuladas com linguagem segura e técnica.
Esse efeito se intensifica quando a desinformação aparece como registro clínico. Um artigo divulgado na Lancet Digital Health conclui que modelos de linguagem têm maior probabilidade de aceitar e reproduzir informações falsas quando elas são apresentadas com tom médico, semelhante ao de prontuários, laudos ou notas de alta. O achado é relevante para ferramentas voltadas à explicação de exames, resumos pós-alta e orientação domiciliar, nas quais a aparência de precisão técnica pode induzir confiança excessiva.
Viés social da IA
Há ainda evidências de vieses estruturais. Uma análise publicada em 2024 na Mayo Clinic Proceedings: Digital Health identificou que LLMs apresentam vieses em decisões simuladas de saúde. Assim, favorecem determinados perfis de pacientes de acordo com raça, gênero, idade e outras características. Os autores alertam que, sem mecanismos explícitos de mitigação, o uso dessas tecnologias pode amplificar desigualdades já existentes.
Riscos específicos também aparecem em saúde mental, sobretudo quando a IA é atua como interlocutora. Uma análise de prontuários feita na Dinamarca e publicada em preprint em 2025 identificou casos graves. O uso de chatbots esteve associado ao agravamento de delírios, ideação suicida e outros sintomas psiquiátricos. Ademais, um estudo de caso conduzido por médicos da Universidade da Califórnia em Los Angeles (UCLA) trouxe novos alertas. O trabalho descreveu episódios de psicose de início recente em usuários sem histórico prévio. Nessas ocorrências, a interação prolongada com a IA e o fenômeno de bajulação do sistema funcionaram como elementos de reforço de crenças delirantes.
No Brasil, esse tipo de uso tende a crescer. Um relatório da consultoria Talk Inc., publicado em 2025, indicou que 13% dos brasileiros já utilizam essas ferramentas como “amigo ou conselheiro” para trocar e resolver questões pessoais e emocionais.
Gargalo da governança
A incorporação da IA à saúde esbarra em desafios que vão além do desempenho técnico. Uma das principais dificuldades é transpor resultados de experimentos para o uso real. O obstáculo é ainda maior quando ferramentas validadas em ambientes controlados passam a ser usadas em larga escala. Além disso, se intensifica no uso por profissionais ou diretamente pelo público.
Outro obstáculo é a fragmentação regulatória. Nesse sentido, embora o CFM tenha publicado uma resolução específica para o uso da IA na prática médica no país, ainda não há diretrizes abrangentes. Faltam, por exemplo, leis para o uso dessas ferramentas fora do contexto clínico. Tais riscos se tornam ainda mais relevantes em contextos de maior vulnerabilidade social. Isso ocorre porque, em países como o Brasil, parte significativa da população tem menor escolaridade e acesso limitado a serviços de saúde. Consequentemente, essas ferramentas podem reforçar a percepção de que a consulta médica é dispensável.
Informações incorretas
Além disso, podem ser instrumentalizadas para amplificar desinformação, servindo como fonte de argumentos para discursos negacionistas sobre vacinas e tratamentos. “Tem um lado positivo que pode ajudar tanto os profissionais quanto as pessoas que realmente só estão em busca de mais informação sobre saúde. Mas precisamos de ações para cuidar da outra parte da população que não está tão preparada para isso”, conclui Telma Soares, da UFG. A discussão sobre um marco legal para o uso da inteligência artificial em saúde está em andamento no Congresso.
Para Edson Amaro, a ausência de regras claras sobre quais soluções podem ser adotadas como boas práticas dificulta decisões de investimento e implementação. Isso ocorre porque desenvolvedores e instituições enfrentam incertezas. Eles ainda não sabem, por exemplo, se poderão utilizar determinadas tecnologias. O profissional avalia que iniciativas como a recente resolução do CFM representam um avanço ao estabelecer parâmetros para o uso da IA na prática médica. “Existem vários caminhos para que a gente atinja o máximo potencial do uso de IA de maneira responsável. No entanto, isso ainda requer uma conversa maior da sociedade”, afirma.
*Texto escrito por Marília Marasciulo, da Agência Einstein
Leia também: Por que alguns cientistas consideram a IA algo divino? Entenda
