Bolsa 23/14759-0 - Aprendizagem profunda, Aprendizado federado - BV FAPESP
Busca avançada
Ano de início
Entree

Preservação da privacidade e defesa de backdoors: rumo à aprendizagem federada em contextos médicos

Processo: 23/14759-0
Modalidade de apoio:Bolsas no Exterior - Estágio de Pesquisa - Doutorado
Data de Início da vigência: 15 de abril de 2024
Data de Término da vigência: 14 de abril de 2025
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Metodologia e Técnicas da Computação
Pesquisador responsável:Agma Juci Machado Traina
Beneficiário:Erikson Júlio de Aguiar
Supervisor: Abdelsalam Helal
Instituição Sede: Instituto de Ciências Matemáticas e de Computação (ICMC). Universidade de São Paulo (USP). São Carlos , SP, Brasil
Instituição Anfitriã: University of Florida, Gainesville (UF), Estados Unidos  
Vinculado à bolsa:21/08982-3 - Segurança e privacidade em modelos de aprendizagem de máquina para imagens médicas contra ataques adversários, BP.DR
Assunto(s):Aprendizagem profunda   Aprendizado federado
Palavra(s)-Chave do Pesquisador:Backdoor attacks | Deep Learning | Digital Health | Federated Learning | Privacy-preserving | Deep Learning

Resumo

Em contextos médicos, os dados podem ser recolhidos a partir de fontes heterogêneas, como máquinas de raio-X, exames de sangue, dispositivos portáteis e dispositivos da Internet das Coisas. As estratégias de Inteligência Artificial (IA), como a Aprendizagem Profunda (AP), podem combinar estes dados para descobrir padrões e anomalias. O DL é especializado na classificação de imagens médicas para ajudar os médicos no diagnóstico. Embora a IA possa aumentar a capacidade dos sistemas computacionais para resolver problemas complexos, pode apresentar problemas de segurança e privacidade. As preocupações com a privacidade ganharam atenção nos últimos anos devido à regulamentação da privacidade e à sensibilização para a segurança contra ataques de backdoor que corrompem os modelos. A aprendizagem federada (FL) é uma estratégia que aumenta a privacidade dos modelos de DL porque treina os modelos sem partilhar o conjunto de dados sensíveis entre os clientes. No entanto, a FL pode sofrer ataques de backdoor e ataques de privacidade mais robustos, como os ataques de interferência de membros. Pretendemos desenvolver novas técnicas para melhorar a privacidade dos sistemas e estratégias defensivas contra backdoors. O estágio será realizado na Universidade da Flórida (UF), EUA, supervisionado pelo Prof. Dr. Sumi Helal. Os objetivos deste projeto abrangem os interesses tanto do projeto temático da FAPESP ``Mining, Index and Visualizing Big Data in Clinical Decision Support Systems" -- (MIVisBD) quanto da pesquisa realizada na UF pelo Prof. Helal.

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
DE AGUIAR, ERIKSON J.; TRAINA, CAETANO, JR.; TRAINA, AGMA J. M.. RADAR-MIX: How to Uncover Adversarial Attacks in Medical Image Analysis through Explainability. 2024 IEEE 37TH INTERNATIONAL SYMPOSIUM ON COMPUTER-BASED MEDICAL SYSTEMS, CBMS 2024, v. N/A, p. 6-pg., . (16/17078-0, 21/08982-3, 20/07200-9, 23/14759-0)

Por favor, reporte erros na lista de publicações científicas utilizando este formulário.