Consultar sintomas na internet virou um hábito comum, mas é perigoso; entenda porque
Anamaria

Consultar sintomas na internet virou um hábito comum, mas a chegada de ferramentas de inteligência artificial como o ChatGPT e o GPT Health mudou essa dinâmica. Atualmente, mais de 230 milhões de pessoas buscam conselhos de bem-estar por meio de robôs conversacionais semanalmente. No entanto, o uso indiscriminado dessas plataformas para interpretar exames ou decidir tratamentos acende um alerta vermelho entre os especialistas. Afinal, a máquina prioriza a fluidez da linguagem, e não necessariamente a exatidão técnica dos fatos médicos.
Recentemente, o Conselho Federal de Medicina (CFM) publicou uma resolução para regulamentar a inteligência artificial na medicina brasileira. A norma determina que qualquer decisão sobre diagnósticos ou terapias deve ser responsabilidade exclusiva do médico. Conforme explica, à Agência Einstein, o médico Edson Amaro, do Hospital Einstein, “o principal risco é o profissional não saber o que está fazendo” ou o paciente confiar cegamente em um sistema que não é 100% preciso. Por isso, a supervisão humana é indispensável para evitar o uso indiscriminado de dados que podem estar incompletos.
Por que a inteligência artificial não substitui a consulta médica?
A tecnologia funciona como um suporte, mas possui limitações invisíveis para o público leigo. Um estudo da Nature Medicine revelou que, enquanto a IA acerta 94,9% das condições em testes isolados, esse desempenho cai para menos de 35% quando interage com humanos. Isso ocorre porque o uso indiscriminado da ferramenta muitas vezes ignora o histórico completo do paciente. Além disso, existe o fenômeno da “bajulação” da IA, onde o sistema tende a concordar com as suspeitas (mesmo erradas) do usuário para parecer prestativo.
Portanto, o autodiagnóstico via chatbot pode reforçar crenças falsas e gerar uma ansiedade desnecessária. De acordo com o que a médica do Einstein Hospital Israelita, Luisa Portugal Marques, disse ao veículo, os pacientes já chegam ao consultório com ideias fixas e pedidos de exames específicos baseados em respostas da tecnologia. Por consequência, essa postura dificulta a construção de uma relação de confiança e a negociação terapêutica real. Em suma, a inteligência artificial deve ser um apoio para entender termos difíceis, mas jamais um substituto para o estetoscópio e o olhar clínico.
Os riscos invisíveis e o futuro da tecnologia no Brasil
Além dos erros técnicos, o uso indiscriminado da IA pode amplificar preconceitos de raça, gênero e idade, já que os algoritmos aprendem com dados que nem sempre são equilibrados. Na saúde mental, o cenário é ainda mais sensível: pesquisas indicam que o uso de chatbots sem acompanhamento pode agravar quadros de delírios e ansiedade. Todavia, a inteligência artificial traz ganhos enormes na gestão hospitalar e na organização de laudos, desde que operada sob um marco legal seguro e ético.
Resumo: A matéria alerta que o uso indiscriminado da inteligência artificial na saúde traz riscos como diagnósticos errados e aumento da ansiedade. Embora a tecnologia ajude a organizar informações, o Conselho Federal de Medicina reforça que a decisão final deve ser sempre de um médico para garantir a segurança do paciente.
Leia também: IA e saúde emocional: como ela nos afeta?
