Como um Novo Método Reduz Vieses em IA Médica Combinando Desempenho e Métricas de Equidade

Por Redação
4 Min

Inteligência Artificial em Saúde: A Questão da Equidade nos Modelos de Aprendizado de Máquina

Modelos de inteligência artificial (IA) são cada vez mais utilizados para tarefas como triagem e predição de risco em saúde. Contudo, quando são treinados com bases de dados que não representam de maneira equilibrada diferentes grupos populacionais, podem apresentar vieses prejudiciais, afetando equidade em relação a gênero, etnias e faixas etárias.

Pesquisa sobre Equidade em Modelos de IA

Um estudo inovador, realizado pelo Instituto de Ciência e Tecnologia da Universidade Federal de São Paulo (ICT-Unifesp), propõe uma estratégia de otimização que integra múltiplas restrições de equidade durante o treinamento de modelos de aprendizado de máquina. O objetivo é reduzir disparidades sem comprometer o desempenho geral. Os resultados foram publicados no periódico Applied Soft Computing.

A professora Lilian Berton, coordenadora da pesquisa, destaca que a maioria dos algoritmos de aprendizado de máquina aprende de forma mais eficaz com dados de treinamento abundantes, o que pode levar a resultados imprecisos para grupos menos representados, como mulheres, negros e indígenas, e pessoas em faixas etárias diferentes da média. Isso é particularmente crítico na área da saúde, onde diagnósticos impactam a vida das pessoas.

Fairness: O Conceito de Equidade Algorítmica

O termo "fairness", frequentemente traduzido como "equidade", ainda carece de uma tradução unificada em português. Berton explica que a pesquisa busca integrar uma otimização multiobjetivo, que visa equilibrar desempenho e diversas métricas de equidade durante o treinamento dos modelos.

Tradicionalmente, muitos modelos "clássicos" focam na maximização da acurácia, mas essa abordagem não devida atenção ao viés existente. Por outro lado, técnicas que tentam mitigar esses vieses podem comprometer o desempenho médio. O estudo aborda essa lacuna, tratando o ajuste como um problema multiobjetivo, onde o desempenho e múltiplas métricas de equidade são otimizados simultaneamente.

Métricas de Desempenho e Viés

No contexto do aprendizado de máquina, quatro métricas são fundamentais: verdadeiros positivos (VP), falsos positivos (FP), verdadeiros negativos (VN) e falsos negativos (FN). Cada uma delas pode ser afetada por viés demográfico, resultando em discriminação inconsciente nos modelos.

A pesquisa mostrou que é possível reduzir significativamente essas disparidades. Por exemplo, em diagnósticos de arritmia, a diferença de paridade demográfica entre grupos de gênero foi reduzida em até 78% ao aplicar restrições simultâneas. No caso de diabetes, houve uma diminuição de mais de 54% no viés racial.

Resultados e Validação Estatística

Os resultados foram rigorosamente avaliados utilizando o teste de Wilcoxon, que valida se as variações observadas são reais ou meramente aleatórias. A quase totalidade das análises indicaram uma confiança estatística superior a 99% nas melhorias em justiça e equilíbrio.

Avanços e Desafios Futuros

Os experimentos foram realizados considerando custos computacionais, utilizando recursos como nuvens gratuitas e clusters de alto desempenho. A pesquisa evidencia que tratar a equidade algorítmica como um problema interseccional proporciona soluções mais robustas, além de métodos pontuais focados em um único atributo sensível.

No entanto, a metodologia atual é limitada a modelos lineares de regressão logística e dados tabulares. A extensão para modelos não lineares, como redes neurais profundas, e para outros tipos de dados, como imagens médicas, apresenta-se como um desafio a ser superado em futuras pesquisas.

O estudo recebeu apoio da FAPESP, através de auxílio à pesquisa e bolsa de pós-doutorado concedida à primeira autora, Maira Blumer Fatoretto.

Para uma leitura mais detalhada sobre o artigo "Optimizing fairness and utility in healthcare machine learning models", acesse this link.

- Advertisement -

Informações da Agência FAPESP

Curtiu? Siga o Candeias Mix nas redes sociais: Twitter, Facebook, Instagram, e Google Notícias. Fique bem informado, faça parte do nosso grupo no WhatsApp e Telegram.
Compartilhe Isso