| Processo: | 21/08982-3 |
| Modalidade de apoio: | Bolsas no Brasil - Doutorado |
| Data de Início da vigência: | 01 de março de 2022 |
| Data de Término da vigência: | 28 de fevereiro de 2027 |
| Área de conhecimento: | Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação |
| Pesquisador responsável: | Agma Juci Machado Traina |
| Beneficiário: | Erikson Júlio de Aguiar |
| Instituição Sede: | Instituto de Ciências Matemáticas e de Computação (ICMC). Universidade de São Paulo (USP). São Carlos , SP, Brasil |
| Bolsa(s) vinculada(s): | 23/14759-0 - Preservação da privacidade e defesa de backdoors: rumo à aprendizagem federada em contextos médicos, BE.EP.DR |
| Assunto(s): | Aprendizado computacional Aprendizagem profunda Processamento de imagens Segurança da informação Gestão da segurança em sistemas computacionais Ataques a computadores Confidencialidade Informática médica |
| Palavra(s)-Chave do Pesquisador: | Aprendizado de Máquina Adversário | Aprendizado profundo | Images Médicas | Processamento de imagens | Segurança & Privacidade | Aprendizado de Máquina |
Resumo Com o advento do big data, dados passaram a ser produzidos e gerados em larga escala, utilizados por modelos de Aprendizado de Máquina (AM) para gerar novos conhecimentos. Diversas áreas tem se beneficiado com o big data e AM, umas delas é a área da saúde, que pode empregar dados complexos como imagens para auxiliarem os especialistas médicos na tomada de decisão. Embora esses conceitos sejam valiosos para área da saúde, podem ocasionar problemas relativos à segurança e privacidade do paciente. Vazamentos de informação em sistemas de saúde podem acontecer mais frequentemente do que se imagina. Por exemplo, no ano de 2020 foram expostos dados de 200 mil pacientes dos sistemas de saúde pública no Brasil. Outro desafio está associado aos modelos de AM empregados, em que estão suscetíveis a ataques que envenenam os dados de entrada, o próprio modelo e causam problemas nos dados de teste. Além disso, podem apresentar backdoors conhecidos e desconhecidos. A área de estudo que propõe estratégias de defesa e ataque contra modelos de AM, é a de aprendizado de máquina adversário, que visa reduzir a confiabilidade do modelo e causar a classificação incorreta dos dados pelo modelo. Portanto, este projeto tem o objetivo de elaborar um arcabouço formado por modelos de defesa, de exploração de vulnerabilidades e de ataques, para compreender e combater as violações contra a segurança e privacidade em modelos de reconhecimento de padrões em imagens médicas. Imagens médicas são utilizadas como entrada de modelos de AM para reconhecer padrões e apoiarem a decisão médica. No entanto, essas imagens, tal como os modelos que as classificam podem sofrer ataques para invalidar sua robustez ou comprometer a privacidade do paciente envolvido. Com este projeto espera-se: (I) desenvolver algoritmos defensivos contra exemplos com perturbações adversárias; (II) elaborar métodos para preservar a privacidade dos pacientes; (III) encontrar novas vulnerabilidades e backdoors que os modelos de AM podem apresentar; (IV) propor estratégias de ataques e suas respectivas defesas, para comunicar a outros pesquisadores os caminhos possíveis que um atacante pode seguir. (AU) | |
| Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa: | |
| Mais itensMenos itens | |
| TITULO | |
| Matéria(s) publicada(s) em Outras Mídias ( ): | |
| Mais itensMenos itens | |
| VEICULO: TITULO (DATA) | |
| VEICULO: TITULO (DATA) | |