Busca avançada
Ano de início
Entree

Framework para mitigação de imparcialidade em imagens médicas

Processo: 23/12468-9
Modalidade de apoio:Bolsas no Brasil - Pós-Doutorado
Data de Início da vigência: 01 de novembro de 2023
Data de Término da vigência: 30 de abril de 2025
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Acordo de Cooperação: Swiss National Science Foundation (SNSF)
Pesquisador responsável:Lilian Berton
Beneficiário:Maira Blumer Fatoretto
Instituição Sede: Instituto de Ciência e Tecnologia (ICT). Universidade Federal de São Paulo (UNIFESP). Campus São José dos Campos. São José dos Campos , SP, Brasil
Vinculado ao auxílio:21/14725-3 - FairMI: imparcialidade em aprendizado de máquina com aplicação em imagens médicas, AP.R
Assunto(s):Aprendizado computacional   Processamento de imagens   Inteligência artificial
Palavra(s)-Chave do Pesquisador:Aprendizado de Máquina | fairness | Processamento de imagens | Inteligência Artificial

Resumo

A utilização da Inteligência Artificial (IA) através do Machine Learning (ML) no dia a dia é uma realidade em diversas aplicações, desde sistemas de recomendação, sistemas financeiros e até mesmo na medicina. Ensaios randomizados estimam os efeitos médios do tratamento para uma população, mas os participantes em ensaios clínicos muitas vezes não são representativos da população de pacientes que recebem tratamento em termos de raça e gênero. Como resultado, os medicamentos e as intervenções não são adaptados aos grupos historicamente vulneráveis, por exemplo, as mulheres, os grupos minoritários e os pacientes obesos tendem a ter opções de tratamento geralmente mais fracas. Como os dados que são usados no treinamento de um modelo de ML é produzido por meio de design e ação humana, não estão livres de possíveis preconceitos. Considerando as implicações éticas decorrentes da falta de representação nos dados ou mesmo da introdução de preconceitos refletidos em modelos de ML, o objetivo deste projeto é desenvolver um framework para mitigação de justiça em imagens médicas. Serão implementadas medidas de justiça, abordagens benchmark para mitigar a justiça e gerar uma classificação justa. O framework desenvolvido será de código aberto disponível no Github. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)