Busca avançada
Ano de início
Entree

Generalização em redes neurais

Processo: 96/02334-6
Modalidade de apoio:Bolsas no Brasil - Doutorado
Data de Início da vigência: 01 de agosto de 1996
Data de Término da vigência: 31 de janeiro de 1997
Área de conhecimento:Ciências Exatas e da Terra - Física - Física da Matéria Condensada
Pesquisador responsável:Nestor Felipe Caticha Alfonso
Beneficiário:Roberta Simonetti
Instituição Sede: Instituto de Física (IF). Universidade de São Paulo (USP). São Paulo , SP, Brasil
Assunto(s):Redes neurais (computação)
Palavra(s)-Chave do Pesquisador:Aprendizado Supervisionado | Generalizacao | Maquina Paridade | Redes Neurais

Resumo

Uma das áreas de mais intensa atividade em Redes Neurais Artificiais é da busca de algoritmos de aprendizado mais eficientes. Dentre as redes neurais mais estudadas está o perceptron de uma camada, que constitui a rede neural mais simples capaz de implementar tarefas cognitivas básicas, como memorização, que permite o reconhecimento de padrões vistos anteriormente, e generalização que é a capacidade de extração de regras para classificar novos exemplos, não vistos anteriormente. Existem redes mais complexas que implementam problemas que o perceptron simples não é capaz: são redes multicamadas, que apresentam camadas internas, também chamadas de escondidas, pois não se tem acesso ao valor de suas atividades. Além da escolha da rede para executar uma determinada tarefa, existe a questão da escolha do algoritmo mais eficiente. Existem vários algoritmos de aprendizado para estes tipos de redes. Dentre eles, um de grande interesse para o aprendizado on-line é conhecido como algoritmo ótimo, inicialmente aplicado ao perceptron simples e mais tarde para um tipo de rede multicamada conhecida como máquina comitê. Nossa proposta é investigar o desempenho deste algoritmo num outro tipo de rede multicamada, conhecida como máquina paridade. Este tipo de rede apresenta uma estrutura de árvore semelhante à da máquina comitê, porém a maneira como calcula a saída é diferente. Estamos interessados no aprendizado on-line desta máquina, isto é, quando os exemplos são apresentados uma única vez, e também no off-line, isto é, quando os exemplos são apresentados exaustivamente. Recentemente foi publicado um trabalho (Kabashima 1994) que trata da aprendizagem na máquina paridade, utilizando um algoritmo conhecido como LAA (least action algorithm). Vamos discutir os resultados obtidos usando o algoritmo ótimo e compará-los com os resultados existentes na literatura. Investigamos também a situação na qual os exemplos são transmitidos ao aluno com ruído, isto é, quando existe uma certa probabilidade e da saída do professor estar invertida. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações acadêmicas
(Referências obtidas automaticamente das Instituições de Ensino e Pesquisa do Estado de São Paulo)
SIMONETTI, Roberta. Generalização e Robustez: Aprendizagem em Redes Neurais na Presença de Ruído. 1997. Tese de Doutorado - Universidade de São Paulo (USP). Instituto de Física (IF/SBI) São Paulo.