Radiologia já colhe frutos da Inteligência Artificial, enquanto predição e interoperabilidade seguem como desafios para o futuro do setor
O entusiasmo em torno da Inteligência Artificial (IA) na saúde cresce a cada ano, impulsionado por promessas de diagnósticos mais rápidos, decisões clínicas mais precisas e modelos mais eficientes de cuidado. E esse movimento se reflete em investimentos: somente em 2024, o setor global de healthcare ultrapassou US$ 26 bilhões aplicados em IA, com expectativa de crescimento anual acima de 38% até 2033, segundo a Grand View Research.
Mas, ao observarmos o cenário brasileiro, torna-se evidente que convivemos com duas realidades distintas: enquanto áreas como a Medicina Diagnóstica já apresentam ganhos mensuráveis com IA, o salto para modelos preditivos, plenamente integrados e clinicamente explicáveis ainda permanece no campo das promessas.
Segundo Cesar Nomura, presidente do Conselho de Administração da Abramed e diretor de Medicina Diagnóstica do Hospital Sírio-Libanês, essa diferença entre expectativas e resultados é estrutural. “Ainda não temos uma IA plena, capaz de diagnosticar e prever desfechos e personalizar todo o cuidado de forma confiável. Mas já temos resultados sólidos em áreas específicas como a radiologia e análises clínicas”.
Os avanços na radiologia não são por acaso. Trata-se de uma das áreas com maior grau de padronização de linguagem, volume de dados estruturados e consolidados para aferir acurácia, sensibilidade e especificidade. Em diversos centros, modelos de IA já reduzem em até 50% o tempo de realização dos exames de Ressonância Magnética.
Para Cesar, essa maturidade não é casual. “O setor de Medicina Diagnóstica é o que mais utiliza IA porque gera dados estruturados, validados e auditáveis. É com base neles que a inovação acontece.”
A natureza padronizada dos exames cria ambiente favorável para o treinamento de modelos robustos, ao contrário de áreas assistenciais onde a variabilidade humana, social e ambiental é significativamente maior.
O que ainda não funciona: da IA preditiva à ausência de interoperabilidade
Se a IA diagnóstica já entrega resultados, a chamada IA preditiva — aquela capaz de combinar variáveis clínicas, comportamentais, genômicas e sociais para antecipar riscos — permanece desafiadora. Na prática, não existem modelos amplamente validados que operem com segurança clínica no cotidiano dos serviços.
Um dos motivos que interferem na validação robusta de algoritmos para população brasileira é a não consolidação de bases representativas de dados e estão relacionadas a não interoperabilidade plena entre sistemas, sejam públicos ou privados. Há, ainda, desafios de qualidade de dados. Bases fragmentadas, heterogêneas e com lacunas importantes dificultam modelos preditivos confiáveis.
Como alerta Cesar: “Sem dados de qualidade representativos e interoperáveis não existe Inteligência Artificial com oa acurácia, só correlação de ruído”.
Esse é um ponto crítico: modelos treinados em bases não representativas geram vieses clínicos, reforçam desigualdades e podem levar a decisões imprecisas, especialmente para populações historicamente subdiagnosticadas.
Outro limite importante é o da explicabilidade. Para ser incorporada na prática clínica, a IA precisa ser auditável, reprodutível e compreensível pelos profissionais de saúde. Por isso, a Abramed tem reforçado que o avanço da IA na saúde exige responsabilidade antecipada, mesmo antes da regulação formal.
Como sintetiza Cesar: “A Inteligência Artificial só tem valor quando vem acompanhada de contexto clínico, confiabilidade e responsabilidade ética”. Governança, rastreabilidade de dados, validação independente, critérios técnicos e prestação de contas são pilares para o uso seguro.
O caminho para o futuro: colaboração, padrões e maturidade setorial
Para que o Brasil evolua da IA diagnóstica para a IA preditiva, será necessário superar o hiato entre tecnologia e infraestrutura. Isso inclui:
- Padrões de interoperabilidade adotados em escala;
- Bases representativas e auditáveis;
- Capacitação de equipes multidisciplinares;
- Governança consistente entre público e privado;
- Modelos regulatórios modernos e colaborativos.
Como conclui Cesar Nomura: “A IA pode prever doenças, reduzir custos e ampliar acesso. Mas só se for construída sobre dados de qualidade, com transparência e propósito. Tecnologia por si só não resolve. O que resolve é o uso responsável dela”.