Busca avançada
Ano de início
Entree

Redes neurais artificiais de valor hipercomplexo: além dos números complexos e quaternios

Processo: 22/01831-2
Modalidade de apoio:Auxílio à Pesquisa - Regular
Data de Início da vigência: 01 de julho de 2022
Data de Término da vigência: 30 de junho de 2024
Área do conhecimento:Ciências Exatas e da Terra - Matemática - Matemática Aplicada
Pesquisador responsável:Marcos Eduardo Ribeiro Do Valle Mesquita
Beneficiário:Marcos Eduardo Ribeiro Do Valle Mesquita
Instituição Sede: Instituto de Matemática, Estatística e Computação Científica (IMECC). Universidade Estadual de Campinas (UNICAMP). Campinas , SP, Brasil
Assunto(s):Inteligência artificial  Processamento de imagens  Aprendizado computacional  Redes neurais (computação)  Redes neurais convolucionais  Números complexos  Quaternios 
Palavra(s)-Chave do Pesquisador:Aprendizado de Máquina | Número hipercomplexo | números complexos | Quaternios | rede neural artificial | rede neural convolucional | Inteligência computacional, processamento e análise de imagens.

Resumo

Redes neurais artificiais (RNAs), incluindo as redes neurais convolucionais, têm demonstrado excelentes resultados em diversas áreas de aplicação, incluindo detecção e classificação de imagens. Concomitantemente, redes neurais de valor hipercomplexo mostraram desempenho competitivo ou superior, mas com menos parâmetros que suas redes neurais equivalentes definidas sobre os números reais. Entre as vantagens das RNAs de valor hipercomplexo, destacam-se a redução do número de parâmetros e o tratamento de múltiplos valores como uma única entidade. Apesar dos avanços significativos em RNAs de valor hipercomplexo, a maioria das pesquisas na área se concentra em redes baseadas em números complexos e quatérnions. No entanto, álgebras de números hipercomplexos alternativas, como os números hiperbólicos, os tessarinos e os coquaternions, podem resultar RNAs de valores hipercomplexos eficientes. Nesse contexto, este projeto de pesquisa visa investigar RNAs definidas em álgebras de números hipercomplexos alternativas, considerando ambos aspectos teóricos e práticos desses modelos. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre o auxílio:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
OLIVEIRA, ANGELICA LOURENCO; VALLE, MARCOS EDUARDO; XAVIER-JUNIOR, JC; RIOS, RA. Least-Squares Linear Dilation-Erosion Regressor Trained Using a Convex-Concave Procedure. INTELLIGENT SYSTEMS, PT II, v. 13654, p. 14-pg., . (22/01831-2)
VITAL, WINGTON L.; VIEIRA, GUILHERME; VALLE, MARCOS EDUARDO; XAVIER-JUNIOR, JC; RIOS, RA. Extending the Universal Approximation Theorem for a Broad Class of Hypercomplex-Valued Neural Networks. INTELLIGENT SYSTEMS, PT II, v. 13654, p. 15-pg., . (22/01831-2)