Regulamentação da Inteligência Artificial no Brasil: desafios e perspectivas na saúde

Regulamentação da Inteligência Artificial no Brasil: desafios e perspectivas na saúde

O PL 2338/2023 está em tramitação, mas há pontos que precisam de revisão para garantir o uso da IA com eficiência

Não é mais novidade que a Inteligência Artificial (IA) tem provocado transformações em diversos setores, principalmente na saúde. Isso porque são diversas as possibilidades de aplicação, por exemplo, softwares que  analisam grandes volumes de dados e imagens médicas para identificar padrões e sinais precoces de doenças, proporcionando avanços significativos na precisão e eficiência dos diagnósticos médicos. 

No entanto, para assegurar que a ferramenta seja utilizada de forma ética e segura, é fundamental estabelecer normas gerais para desenvolvimento, implementação e uso responsável da tecnologia, que já está no nosso dia a dia e seguramente será amplificada. Este é um dos principais objetivos do Projeto de Lei 2338/2023, que dispõe sobre a utilização da IA no Brasil e está em tramitação no Senado Federal, ainda sem previsão para ser votado.

Não há como negar a importância do respeito às singularidades de cada setor, sobretudo pela transversalidade dos sistemas de IA. Neste sentido, a participação dos agentes da cadeia de saúde para auxílio no amadurecimento da norma é essencial. Tendo isso em vista, a Associação Brasileira de Medicina Diagnóstica (Abramed) tem acompanhado o PL e contribuído para seu desenvolvimento através do Comitê de Proteção de Dados.

Além disso, a entidade é membro do Fórum de Privacidade e Proteção de Dados do Setor de Saúde, que, junto a outras associações, como a Confederação Nacional de Saúde (CNSaúde) e a Associação Nacional de Hospitais Privados (Anahp), busca debater e fomentar discussões envolvendo privacidade, proteção de dados, inovação e tecnologia para o segmento.

Entre os pontos-chave do PL 2338/2023, que se relacionam à área de saúde e necessitam de ajustes na redação – de acordo com análise das entidades –, três merecem atenção, conforme explica Lucas Bonafé, membro do Comitê de Proteção de Dados da Abramed e coordenador da área de Inovação do Machado Nunes, escritório que presta assessoria jurídica para a associação.

O primeiro ponto é a classificação da saúde como IA de alto risco. Em resumo, isso significa que sistemas de diagnóstico médico são considerados pelo Projeto de Lei como, automaticamente, ferramentas que têm o potencial de causar danos significativos aos usuários e, por tal razão, devem ser submetidos a avaliações rigorosas e medidas de segurança adicionais, como a elaboração obrigatória de relatório algorítmico, preparo da documentação do software antes da disponibilização no mercado e adoção de medidas técnicas para viabilizar a explicabilidade dos resultados dos sistemas de IA, dentre outros. 

O objetivo almejado ao enquadrar as aplicações na área da saúde como de alto risco é proporcionar maior segurança e transparência no uso da tecnologia, especialmente diante de informações extremamente sensíveis. Mas, segundo Bonafé, isso pode acabar gerando morosidade no processo de desenvolvimento de novas tecnologias e inibindo o investimento em inovação, uma vez que haverá o aumento das exigências que os agentes da cadeia precisarão cumprir.

“Além disso, a categorização de qualquer produto ou serviço de saúde como de alto risco sequer segue a lógica adotada pelas autoridades sanitárias em todo o país, o que reitera a necessidade de modificação do PL”, explica, lembrando que a própria Agência Nacional de Vigilância Sanitária (Anvisa) já possui regulamentação sobre a regularização de software como dispositivo médico. 

Neste contexto, Bonafé faz questão de ressaltar que o PL, de forma alguma, considera a possibilidade de decisões autônomas na saúde, seja por restrições legais ou pelas diretrizes rigorosas dos conselhos profissionais. Isso quer dizer que o profissional de saúde vai continuar sendo o responsável pela decisão final com relação aos tratamentos dos pacientes.

O segundo ponto é que o PL estabelece a responsabilidade civil para os operadores e fornecedores de sistemas de IA de forma absoluta, ou seja, não há distinção do dever destes agentes no que diz respeito à obrigação de indenizar por eventuais danos que algum sistema venha a causar, sem considerar que o papel de cada um destes atores no desenvolvimento e aplicação dos sistemas é completamente diferente.

“A responsabilização absoluta frente aos resultados da utilização de IA pode significar estagnação da inovação tecnológica, pois a gestão dos riscos não justificaria o investimento em sistemas de IA, contrariando o próprio fundamento do desenvolvimento tecnológico e a inovação defendido pelo PL”, salienta Bonafé. 

A ideia é estabelecer critérios claros, para que o desenvolvedor que tenha agido com transparência e seguido procedimentos adequados não seja responsabilizado por uso inadequado na ponta. A proposta de alteração apresentada pelo setor da saúde no PL visa diferenciar as responsabilidades entre desenvolvedores, fornecedores de software e usuários (tanto pessoas jurídicas quanto pacientes), atribuindo uma responsabilidade específica. 

O terceiro aspecto relevante diz respeito à autoridade de regulação da IA. O PL estabelece a criação de uma Autoridade Competente para implementar e fiscalizar a lei, com responsabilidades que incluem proteger direitos fundamentais, promover a Estratégia Brasileira de Inteligência Artificial, elaborar estudos e incentivar boas práticas, além de expedir regulamentações. A autoridade também terá a competência de aplicar sanções e elaborar relatórios anuais sobre suas atividades. No entanto, não foi especificada qual será essa autoridade, deixando a tarefa para o Executivo.

Enquanto isso, a Autoridade Nacional de Proteção de Dados (ANPD) defende o posicionamento de que deve ser a responsável pela regulação da IA no país, argumentando que possui forte sinergia da proposta apresentada no PL com os temas tratados na Lei Geral de Proteção de Dados (LGPD). No entanto, segundo Bonafé, é preciso considerar que nem todos os aspectos de concentração da regulação da matéria em um só ente são positivos, tendo em vista que sistemas de IA estão em diferentes setores da economia, com características únicas, que demandam conhecimento aprofundado de cada setor.

“Uma entidade responsável por todos os setores é uma tarefa bastante complexa. Com relação a esse ponto, pedimos alteração para que cada agência reguladora dos setores envolvidos seja responsável pelas particularidades de seu domínio, por exemplo, a Anvisa, na área de saúde. Embora princípios e normas de IA se apliquem a todos, as especificidades devem ser delineadas por cada agência, dado o conhecimento técnico e histórico que possuem”, aponta Bonafé.

Em meio a esses desafios, entre outros relacionados ao PL, a Abramed destaca a importância de encontrar um equilíbrio preciso entre a proteção dos direitos fundamentais, o estímulo à inovação e a eficácia na aplicação das normas, especialmente no contexto da saúde e medicina diagnóstica. A associação reforça a necessidade de considerar as particularidades do setor, garantindo que o uso ético e responsável da inteligência artificial contribua efetivamente para avanços dos serviços médicos no Brasil.

Associe-se Abramed

Assine nossa Newsletter