Busca avançada
Ano de início
Entree

FairMI: imparcialidade em aprendizado de máquina com aplicação em imagens médicas

Resumo

O enviesamento de algoritmos continua sendo um dos principais desafios para a aplicabilidade mais ampla de modelos de Aprendizado de Máquina (AM) na área de saúde. Modelagem estatística de fenômenos naturais ganharam força devido ao aumento da capacidade de representação e disponibilidade de dados. Em medicina, particularmente, o uso de modelos de AM aumentou significativamente nos últimos anos, especialmente para apoiar a triagem em larga escala e o diagnóstico. Por mais impactante que seja, o estudo do viés demográfico de soluções em AM recém desenvolvidas ou já implantadas neste domínio continua negligenciado. Isso é particularmente importante no domínio de processamento de imagens, onde pode ser difícil associar atributos demográficos a recursos. Dentro de resultados recentes, a ``impossibilidade da imparcialidade'' estabelece que alguns desses critérios não podem ser respeitados concomitantemente. Dentre outros fatores, falta de dados brutos, e em particular interseções de minorias, continua sendo uma adas questões fundamentais que ainda não está endereçada por conta de sua natureza desafiadora. Esta proposta endereça três importantes desafios no domínio da imparcialidade em AM, com foco em imagens médicas: (i) Criação de abordagens inovadoras para treinar modelos de AM, que podem ser automaticamente ajustados para se tornarem mais úteis (maximizar a performance), ou justos levando-se em consideração imparcialidade por grupo ou individual, (ii) Quantificação dos limites de imparcialidade de modelos de AM e dados de desenvolvimento associados e, finalmente, (iii) Construção de sistemas cuja a performance conjunta com operadores humanos no ciclo decisional é justa face aos diversos indivíduos e grupos demográficos. Para atingir essas metas, desenvolveremos uma nova estrutura de avaliação de viés, e funções de erro que levam em conta a utilidade do modelo, juntamente com todos os aspectos de imparcialidade demográfica que se deseja abordar. Um modelo generativo, treinado para isolar características demográficas ajustáveis, simulará dados em larga escala cobrindo minorias e interseções. Em seguida, estudaremos os limites de (segurança da) imparcialidade por meio de curvas de aprendizado modificadas, para modelos de AM e dados de treinamento associados. Por fim, estudaremos como humanos afetam a imparcialidade dos sistemas híbridos IA/humano, e abordaremos o ajuste de utilidade/justiça pós-implantação, incorporando coeficientes de peso diretamente no modelo treinado. O desenvolvimento de métodos e ferramentas para detectar, mitigar ou remover viés melhorará a segurança dos modelos de AM implantados na área da saúde. Esperamos que nosso trabalho ajude a definir novos limites operacionais para a implantação responsável de ferramentas de inteligência artificial. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre o auxílio:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)