Busca avançada
Ano de início
Entree

Perceptrons híbridos fuzzy morfológicos/lineares baseados em extreme learning com aplicações em classificação

Processo: 17/10224-4
Linha de fomento:Bolsas no Brasil - Iniciação Científica
Vigência (Início): 01 de agosto de 2017
Vigência (Término): 31 de julho de 2018
Área do conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Pesquisador responsável:Peter Sussner
Beneficiário:Israel Campiotti
Instituição-sede: Instituto de Matemática, Estatística e Computação Científica (IMECC). Universidade Estadual de Campinas (UNICAMP). Campinas , SP, Brasil
Assunto(s):Inteligência artificial   Morfologia matemática   Fuzzy (inteligência artificial)   Otimização matemática   Classificação

Resumo

Rede neurais híbridas morfológicas/lineares combinam operadores morfológicos e lineares. Recentemente foi introduzida uma rede neural artificial alimentada adiante (feedforward) representando um perceptron híbrido linear/morfológico fuzzy chamado de fuzzy dilation/erosion/linear perceptron (F-DELP). Seguindo as ideias de Pessoa e Marago, foi aplicado uma suavização apropriada para superar a não diferenciabilidade dos operadores de dilatação e erosão fuzzy empregados nos modelos F-DELP propostos. Estes modelos foram treinados usando versões do tradicional algoritmo de retropropagação do erro (backpropagation) e seus parâmetros foram selecionados por validação cruzada (cross validation). O modelo F-DELP foi aplicado a problemas de classificação bem conhecidos, produzindo resultados satisfatórios quando comparado com outros classificadores, como FARC-HD, Theta-FAMs e SVM. Ao invés de validação cruzada e retropagação, técnicas mais avançadas, para selecionar o número e tipos de módulos e para otimizar os pesos, podem ser usadas. Neste projeto, iremos focar no uso de aprendizado extremo (extreme learning) para determinar os pesos da rede. Deste modo, o problema de selecionar o número de módulos pode também ser parcialmente contornado. De acordo com Huang et al., extreme learning (EL) é computacionalmente barato comparado com algoritmos de otimização evolucionários e algoritmos clássicos para treinamento de redes neurais e, geralmente, resulta em boa performance de generalização sem requerer alguma forma de regularização para evitar sobreajuste (overfitting). (AU)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
SUSSNER, PETER; CAMPIOTTI, ISRAEL. Extreme learning machine for a new hybrid morphological/linear perceptron. NEURAL NETWORKS, v. 123, p. 288-298, MAR 2020. Citações Web of Science: 1.

Por favor, reporte erros na lista de publicações científicas escrevendo para: cdi@fapesp.br.