Busca avançada
Ano de início
Entree

Aprendizado Interativo de Dicionários Visuais Aplicado à Classificação de Imagens

Processo: 17/03940-5
Modalidade de apoio:Bolsas no Brasil - Doutorado
Data de Início da vigência: 01 de agosto de 2017
Data de Término da vigência: 29 de fevereiro de 2020
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Metodologia e Técnicas da Computação
Acordo de Cooperação: Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Pesquisador responsável:Alexandre Xavier Falcão
Beneficiário:César Christian Castelo Fernández
Instituição Sede: Instituto de Computação (IC). Universidade Estadual de Campinas (UNICAMP). Campinas , SP, Brasil
Vinculado ao auxílio:14/12236-1 - AnImaLS: Anotação de Imagem em Larga Escala: o que máquinas e especialistas podem aprender interagindo?, AP.TEM
Assunto(s):Análise de imagens   Aprendizado computacional   Visualização
Palavra(s)-Chave do Pesquisador:Aprendizado de Máquina | Classificação de Imagens | Deep Learning | Descritores de Imagem | dicionários visuais | Visualização | Análise de Imagens

Resumo

Técnicas baseadas em Deep Learning tem se convertido muito populares no projeto de descritores de imagem e classificadores de padrões como um único pipeline. Uma desvantagem bem conhecida nessas técnicas, no entanto, é a necessidade de grandes conjuntos de treinamento com amostras pré-anotadas. Infelizmente, em varias aplicações das Ciências e da Engenharia, é difícil contar com especialistas para pré-anotar grandes conjuntos de dados, especialmente quando a anotação requer segmentação interativa de imagem (que é o caso quando as amostras são objetos da imagem). Ainda a especificação manual de regiões de interesse ao redor dos objetos pode ser difícil quando o número de amostras requeridas é alto, ou quando a imagem é volumétrica. Isto torna importante a investigação de técnicas que possam aprender de um número pequeno de amostras rotuladas. Bag of Visual Words (BoVW) é um exemplo de sucesso em aprendizado não supervisado de características. Depois de detectar pontos e características locais a partir de um conjunto de imagens de treinamento não rotuladas, um dicionário de palavras visuais pode ser construído com as características mais representativas e um descritor efetivo de imagem pode ser obtido através da correspondência das características locais extraídas de uma nova imagem e as palavras visuais do dicionário. Logo, treinando um classificador supervisionado baseado nesses descritores de imagem, é possível atribuir rótulos a imagens novas. Neste projeto, visamos revisitar BoVW para o projeto de descritores de imagem a partir de um número pequeno de amostras rotuladas. Dado o sucesso de BoVW como uma técnica não supervisionada de aprendizado de características, acreditamos que o conhecimento dos rótulos das amostras pode melhorar consideravelmente o seu desempenho. Portanto, propomos investigar maneiras de explorar a informação dos rótulos no projeto de dicionários visuais. Isto nos permite incrementar o número de amostras rotuladas através de aprendizado ativo, devido a que o classificador de padrões baseado no descritor de imagem por BoVW melhora com as iterações de aprendizado. Nós acreditamos que o desempenho do classificador resultante será satisfatório, muito antes que o conjunto rotulado de treinamento possa ser considerado grande, o qual seria uma tremenda economia de tempo e esforço em anotação de imagens para os especialistas. Nós temos também interesse na avaliação do desempenho do classificador de imagem resultante baseado em BoVW com o classificador de imagens baseado em Deep Learning, utilizando os mesmos conjuntos de treinamento acrescentados. A ideia é descobrir o número mínimo de amostras rotuladas requeridas para aplicar Deep Learning efetivamente. Naturalmente, essas questões podem levar a respostas diferentes dependendo da aplicação. Pretendemos nos focar em bancos de imagens de um projeto associado com o diagnostico de parasitos intestinais. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas (4)
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
SOUSA, AZAEL MELO; CASTELO-FERNANDEZ, CESAR; OSAKU, DANIEL; BAGATIN, ERICSON; REIS, FABIANO; FALCAO, ALEXANDRE X.; IEEE. An Approach for Asbestos-related Pleural Plaque Detection. 42ND ANNUAL INTERNATIONAL CONFERENCES OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY: ENABLING INNOVATIVE TECHNOLOGIES FOR GLOBAL HEALTHCARE EMBC'20, v. N/A, p. 4-pg., . (14/12236-1, 17/03940-5)
SOUSA, AZAEL M.; REIS, FABIANO; ZERBINI, RACHEL; COMBA, JOAO L. D.; FALCAO, ALEXANDRE X.; IEEE. CNN Filter Learning from Drawn Markers for the Detection of Suggestive Signs of COVID-19 in CT Images. 2021 43RD ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE & BIOLOGY SOCIETY (EMBC), v. N/A, p. 4-pg., . (14/12236-1, 17/03940-5)
CULQUICONDOR, ALDO; BALDASSIN, ALEXANDRO; CASTELO-FERNANDEZ, CESAR; DE CARVALHO, JOAO P. L.; PAPA, JOAO PAULO. An efficient parallel implementation for training supervised optimum-path forest classifiers. Neurocomputing, v. 393, p. 259-268, . (14/16250-9, 14/12236-1, 13/07375-0, 16/19403-6, 17/03940-5)
CASTELO-FERNANDEZ, CESAR; FALCAO, ALEXANDRE X.; VENTO, M; PERCANNELLA, G. Learning Visual Dictionaries from Class-Specific Superpixel Segmentation. COMPUTER ANALYSIS OF IMAGES AND PATTERNS, CAIP 2019, PT I, v. 11678, p. 12-pg., . (14/12236-1, 17/03940-5)