Vieses algorítmicos na Saúde: a IA na Medicina Diagnóstica precisa de contexto, não só de dados

Por Tatiana Almeida, Gerente Médica da área de dados do laboratório clínico no Hospital Israelita Albert Einstein e membro do Comitê de Análises Clínicas e Interoperabilidade da Abramed

A promessa de uma revolução na Medicina impulsionada pela Inteligência Artificial é real. A imagem de um “Waze da Saúde”, capaz de indicar as melhores rotas para diagnóstico e tratamento, já deixou de ser ficção científica e está sendo construída em hospitais, laboratórios e startups.

Mas por trás dessa inovação, esconde-se um desvio perigoso: o risco de transformar desigualdades históricas em verdades matemáticas. Não há dúvidas de que o debate em torno dos vieses algorítmicos ganhou escala com o avanço da inteligência artificial e do aprendizado de máquina a partir de grandes bases de dados, porém, já de início, é importante esclarecer que estamos diante de um desafio que tem raízes mais profundas.

Os vieses não nascem da IA — eles refletem um mundo construído com recortes sociais, culturais e econômicos que agora são aprendidos pelas máquinas. A medicina baseada em evidências tenta reduzir esses efeitos com ensaios clínicos e amostragens controladas. A IA, no entanto, aprende com o que existe — e o que existe, muitas vezes, é desigual.

Seja cognitivo ou algorítmico, o viés distorce decisões. E quando um algoritmo é treinado com bases incompletas ou enviesadas — o que infelizmente não é raro — ele tende a replicar e amplificar esses desvios, com aparência de neutralidade, sobretudo em um cenário de (hiper) digitalização.

Na Medicina Diagnóstica, isso é ainda mais sensível: decisões orientam condutas e definem desfechos. Os exemplos são sutis e, ao mesmo tempo, alarmantes.

Um algoritmo pode diagnosticar pneumonia em pessoas negras com uma frequência maior do que a real — mas o que ele lê, na verdade, são as consequências de uma vulnerabilidade social, que muitas vezes recaem em moradias precárias, falta de acesso ao saneamento básico e alimentação inadequada. Em outro caso, um sistema otimizou a fila de ressonâncias magnéticas ao separar meninos “mais agitados” das meninas “mais calmas”. A eficiência operacional cresceu. Mas a que custo? O de reforçar um estereótipo cultural e institucionalizar, sem perceber, uma lógica de segregação de gênero.

Os algoritmos não produzem causalidade, apenas reconhecem padrões. E padrões podem ser perigosos se não forem avaliados com senso crítico, responsabilidade e contexto. O maior risco, porém, é a invisibilidade do viés. Um ciclo se instala: diagnósticos excessivos em populações vulneráveis geram tratamentos desnecessários, que levam a efeitos adversos e reforçam a falsa ideia de que aquele grupo é “mais doente”.

A estatística final apenas confirma o erro — e ele vira política pública, decisão médica, critério de triagem. E, nesse cenário, a regulação atual — centrada na eficácia técnica — não consegue identificar distorções éticas ou sociais.

Esse, aliás, é um ponto central: a IA é ferramenta, não agente decisório. O profissional de saúde precisa manter sua autoridade crítica, interpretando os dados com conhecimento clínico, a partir de exames precisos e de sensibilidade.

Como virar esse jogo?

A primeira resposta está na base: os dados. Modelos treinados a partir de bases limitadas — como de um único hospital público ou privado — não são aplicáveis em outros contextos. Criar bases diversas, testar o desempenho dos modelos com rigor e cruzar variáveis socioculturais é uma exigência ética.

O case do modelo de risco metabólico desenvolvido pelo Hospital Israelita Albert Einstein para os seus pacientes é ilustrativo: baseado em check-ups clínicos, ele indica alterações com potencial de agravamento ou melhora, de forma individual, sem generalizar e sem prescrever condutas, preservando o papel do médico. É o tipo de IA que alerta, mas não decide.

Outras boas práticas já estão descritas, como mostram as diretrizes do Departamento de Medicina Laboratorial (DLM, 2024): divisão clara de dados em treino, teste e validação; reprodutibilidade e explicabilidade — ou seja, a capacidade de compreender por que determinada decisão foi tomada  — precisam se tornar regra.

Além disso, a regulação, nesse cenário, precisa acompanhar o ritmo da inovação. Modelos validados tecnicamente ainda podem ser falhos do ponto de vista ético ou social. Relatórios de equidade e diversidade devem deixar de ser exceção e se tornar parte obrigatória da governança algorítmica, especialmente em soluções para a Saúde.

O futuro da inteligência artificial no setor não pode ser construído apenas por engenheiros ou desenvolvedores. É preciso reafirmar o papel do profissional de saúde como intérprete crítico e reforçar o protagonismo e a responsabilidade da área para propor seus próprios padrões e colaborar com a construção de diretrizes claras que garantam o olhar humano no centro de toda decisão automatizada.

A inteligência artificial pode, sim, levar a Saúde a um novo patamar de precisão e eficiência. Mas, como no Waze, nem todo caminho mais rápido é o mais seguro. Se não estivermos atentos ao destino, podemos acabar reforçando os becos mais escuros das desigualdades sociais.

Afinal, não basta inovar. É preciso inovar com responsabilidade.