Busca avançada
Ano de início
Entree

Uma análise dos impactos da compressão de modelos de inteligência artificial na imparcialidade

Processo: 25/23944-1
Modalidade de apoio:Bolsas no Brasil - Programa Estímulo a Vocações Científicas
Data de Início da vigência: 09 de fevereiro de 2026
Data de Término da vigência: 28 de março de 2026
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Metodologia e Técnicas da Computação
Pesquisador responsável:Leonardo Tomazeli Duarte
Beneficiário:Mariana Gonzaga Ramires
Instituição Sede: Faculdade de Ciências Aplicadas (FCA). Universidade Estadual de Campinas (UNICAMP). Limeira , SP, Brasil
Assunto(s):Inteligência artificial
Palavra(s)-Chave do Pesquisador:compressão de modelos de inteligência artificial | imparcialidade | Inteligência Artificial | Inteligência Artificial

Resumo

Cada vez mais sistemas com algoritmos de inteligência artificial (IA) são utilizados em diferentes âmbitos e esferas da sociedade, de aplicações na educação, processos seletivos, até na área jurídica. Com o crescimento dessa tendência, esses algoritmos passam a exercer funções cruciais em processos humanos, sendo suscetíveis a cometerem erros que perpetuam pré conceitos enraizados dentre os fundamentos da humanidade. É imperativo, então, que algoritmos de IA passem por rigorosos critérios que visem identificar e precaver tais erros que possam perpetuar estereótipos negativos. Mediante esse cenário surge o estudo de bias e fairness - ou viés e imparcialidade, respectivamente, em português -, em modelos de IA, que busca compreender como esses modelos chegam ao ponto de tender a um certo tipo de resposta que favorece um grupo específico, e, de suma importância para essa pesquisa, como analisar a reprodução desses vieses nos resultados dos algoritmos de IA.Mais ainda, com a popularização da IA, torna-se extremamente interessante encontrar formas de tornar sua computação mais leve, isto é, maneiras de reduzir o tamanho e o custo computacional desses modelos de inteligência artifical, sem comprometer significativamente seu desempenho. Essa categoria de métodos constitui a compressão de modelos de inteligência artificial. Existem várias técnicas para comprimir modelos de IA, dentre as mais comuns: Quantização, que consiste no processo de representar os pesos e/ou ativações de uma rede neural com números de baixa precisão em vez de usar números de ponto flutuante de precisão total, e a Poda, que consiste em remover parâmetros ou elementos estruturais internos que são considerados redundantes, desnecessários ou menos importantes, em um modelo pré-treinado.Portanto, o presente trabalho se propõe a explorar a junção desses tópicos, através de um estudo bibliográfico de fairness em IA e métodos de compressão de modelos, que culminará em duas fases de experimentos: em compressão de modelos, com diferentes técnicas, e, então, aplicando a análise de fairness de forma comparativa entre os modelos compactados e o modelo original. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)