Busca avançada
Ano de início
Entree

FairMI: imparcialidade em aprendizado de máquina com aplicação em imagens médicas

Processo: 21/14725-3
Modalidade de apoio:Auxílio à Pesquisa - Regular
Data de Início da vigência: 01 de julho de 2023
Data de Término da vigência: 30 de junho de 2027
Área do conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Acordo de Cooperação: Swiss National Science Foundation (SNSF)
Pesquisador responsável:Lilian Berton
Beneficiário:Lilian Berton
Pesquisador Responsável no exterior: André Rabello dos Anjos
Instituição Parceira no exterior: Idiap Research Institute, Suíça
Instituição Sede: Instituto de Ciência e Tecnologia (ICT). Universidade Federal de São Paulo (UNIFESP). Campus São José dos Campos. São José dos Campos , SP, Brasil
Pesquisadores associados: Anete Trajman ; Carlos Alberto Buchpiguel ; Marcelo Tatit Sapienza
Bolsa(s) vinculada(s):23/12493-3 - Rumo a equidade em processamento de imagens médicas por meio de abordagens de aprendizado semissupervisionado, BP.TT
23/12468-9 - Framework para mitigação de imparcialidade em imagens médicas, BP.PD
23/10701-8 - Avaliação de Computer Aided Design (CAD) baseado em aprendizado de máquina justo, BP.TT
Assunto(s):Inteligência artificial  Aprendizado computacional  Processamento de imagens  Diagnóstico por imagem 
Palavra(s)-Chave do Pesquisador:Aprendizado de Máquina | Justiça em IA | Processamento de imagens | Inteligência Artificial

Resumo

O enviesamento de algoritmos continua sendo um dos principais desafios para a aplicabilidade mais ampla de modelos de Aprendizado de Máquina (AM) na área de saúde. Modelagem estatística de fenômenos naturais ganharam força devido ao aumento da capacidade de representação e disponibilidade de dados. Em medicina, particularmente, o uso de modelos de AM aumentou significativamente nos últimos anos, especialmente para apoiar a triagem em larga escala e o diagnóstico. Por mais impactante que seja, o estudo do viés demográfico de soluções em AM recém desenvolvidas ou já implantadas neste domínio continua negligenciado. Isso é particularmente importante no domínio de processamento de imagens, onde pode ser difícil associar atributos demográficos a recursos. Dentro de resultados recentes, a ``impossibilidade da imparcialidade'' estabelece que alguns desses critérios não podem ser respeitados concomitantemente. Dentre outros fatores, falta de dados brutos, e em particular interseções de minorias, continua sendo uma adas questões fundamentais que ainda não está endereçada por conta de sua natureza desafiadora. Esta proposta endereça três importantes desafios no domínio da imparcialidade em AM, com foco em imagens médicas: (i) Criação de abordagens inovadoras para treinar modelos de AM, que podem ser automaticamente ajustados para se tornarem mais úteis (maximizar a performance), ou justos levando-se em consideração imparcialidade por grupo ou individual, (ii) Quantificação dos limites de imparcialidade de modelos de AM e dados de desenvolvimento associados e, finalmente, (iii) Construção de sistemas cuja a performance conjunta com operadores humanos no ciclo decisional é justa face aos diversos indivíduos e grupos demográficos. Para atingir essas metas, desenvolveremos uma nova estrutura de avaliação de viés, e funções de erro que levam em conta a utilidade do modelo, juntamente com todos os aspectos de imparcialidade demográfica que se deseja abordar. Um modelo generativo, treinado para isolar características demográficas ajustáveis, simulará dados em larga escala cobrindo minorias e interseções. Em seguida, estudaremos os limites de (segurança da) imparcialidade por meio de curvas de aprendizado modificadas, para modelos de AM e dados de treinamento associados. Por fim, estudaremos como humanos afetam a imparcialidade dos sistemas híbridos IA/humano, e abordaremos o ajuste de utilidade/justiça pós-implantação, incorporando coeficientes de peso diretamente no modelo treinado. O desenvolvimento de métodos e ferramentas para detectar, mitigar ou remover viés melhorará a segurança dos modelos de AM implantados na área da saúde. Esperamos que nosso trabalho ajude a definir novos limites operacionais para a implantação responsável de ferramentas de inteligência artificial. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre o auxílio:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
SANTOS, MATHEUS A. DE CASTRO; BERTON, LILIAN. An Enhanced Framework for Overcoming Pitfalls and Enabling Model Interpretation in Pneumonia and Covid-19 Classification. IEEE ACCESS, v. 11, p. 18-pg., . (21/14725-3, 21/11905-0)