Inteligência artificial não substitui médico e deve ser usada com ética
Empatia, a escuta ativa e a consideração pelos valores e preferências do paciente nunca serão substituídos por um algoritmo
A tecnologia é conhecimento humano essencial em todas as áreas. Não seria diferente na medicina. A inteligência artificial (IA) tem a capacidade de processar grandes volumes de dados, identificar padrões e estruturar hipóteses diagnósticas, trazendo agilidade e revolucionando a forma como pensamos o cuidado à saúde. A perspectiva de otimizar e aumentar a eficiência do sistema de saúde é tentadora.
Nesse contexto, é fundamental reforçar que ela jamais substituirá a experiência, a ética e o julgamento clínico humano, pilares essenciais para a prática médica. Doenças, diagnósticos, tratamentos e prevenção formam conjuntos epidemiológicos fundamentais para que o médico oriente o seu caso e a IA pode ajudar nisso. Mas cada ser humano é único na sua história, no seu nicho social, habitacional e suas emoções, constituindo um intrincado labirinto com sutilezas que nunca vão aparecer na máquina, nos prontuários eletrônicos. Portanto, o uso da IA, que representa compromisso com a ciência, não pode abolir a intuição e a percepção delicada do subjetivo.
Dito de outra forma, vamos considerar a medicina baseada em evidências, uma abordagem que reúne a melhores informações científicas disponíveis para tomar decisões clínicas. Não basta simplesmente aplicar as conclusões de um estudo, é necessário avaliar sua qualidade metodológica, validade, aplicabilidade à população-alvo e consistência dos resultados. Há que se considerar a experiência do examinador e as preferências e valores do paciente, dentro da sua história de vida e de suas necessidades.
É aí que entra o fator humano, a experiência que deve nortear o dia a dia do médico e nele a questão ética. Ignorar este imenso universo em troca da conclusão da IA é entrar no obscuro de sua caixa preta. A entrada neste sistema com milhões de arquivos, bancos de dados gigantescos e de diferentes origens, computadores e mais, os milhares de programadores e usuários de IA, traz para o produto final a possibilidade de agregar uma grande ajuda, mas também de estar produzindo cenários alucinados e conduzindo o médico a erros. Seja por regras estabelecidas pelo programador (os algoritmos) de forma errônea ou maliciosa.
Também é onde estão os desafios éticos, relacionados à privacidade e confidencialidade, ao risco de enviesamento que corrompe a trilha de equidade e desafios à transparência e clareza do racional. Como garantir a proteção de dados do paciente contra acessos não autorizados? Como evitar discriminações e garantir que não estamos lidando com resultados que no final, ampliam a iniquidade? Como assegurar que os processos e decisões complexas dos sistemas sejam compreensíveis para profissionais de saúde e pacientes?
A questão é tão relevante que a Organização Mundial da Saúde (OMS) e instituições internacionais como o Vaticano entraram na discussão para estabelecer diretrizes éticas e práticas para o uso dessa tecnologia. Aqui no Brasil, esse movimento é liderado pela Agência Nacional de Saúde Suplementar (ANS) e pelo Instituto Ética Saúde (IES). Mais de 20 entidades, empresas e pessoas físicas, com o apoio da Organização Pan-Americana da Saúde (OPAS) e do Ministério da Saúde, reafirmaram o compromisso com o Marco de Consenso para a Colaboração Ética Multissetorial na Área de Saúde. Trata-se de um dos maiores acordos setoriais da saúde do mundo, proposto pelo IES, com o objetivo de construir confiança e promover a colaboração em questões éticas.
Foram incluídos no Marco dois itens sobre a ética dos algoritmos: um reconhecendo “as limitações, vieses e riscos da IA, que podem gerar erro nos resultados”, e outro com “o compromisso dos signatários de promover programas de educação e treinamento bem como mecanismos de boas práticas para que, quando do uso de ferramentas de inteligência artificial, ocorra a garantia da confidencialidade dos dados, do uso diligente de tais ferramentas, do cumprimento do dever de revelação do uso às partes interessadas, do princípio da não delegação do processo decisório, da responsabilização dos profissionais e organizações que fizerem uso destas ferramentas”.
Este movimento mundial sinaliza que a participação da sociedade, a colaboração entre diferentes organizações, instituições e profissionais são indispensáveis para enfrentarmos os desafios que a tecnologia tem trazido e que se somam àqueles dilemas latentes de um sistema de saúde que responda às necessidades da população e, ao mesmo tempo, dê conta de demandas individuais.
Se há desafios éticos no processo sistêmico, para o médico há também desafios concretos: o uso da IA, no futuro imediato, é praticamente compulsório, exigindo dele, além da navegação no extenso oceano das ciências médicas, a pilotagem dos prompts no universo digital.
A IA pode oferecer um suporte inestimável ao pontilhar um caminho à frente. Mas ao médico, autônomo e muitas vezes solitário, cabe a responsabilidade indelegável de apontar o rumo, em um processo extremamente sensível e humano, no qual a empatia, a escuta ativa e a consideração pelos valores e preferências do paciente nunca serão substituídos por um algoritmo.
* Sérgio Madeira é médico e diretor médico do Instituto Ética Saúde (IES)