Busca avançada
Ano de início
Entree


Sampling techniques for nonsmooth optimization = Técnicas amostrais para otimização não suave

Texto completo
Autor(es):
Lucas Eduardo Azevedo Simões
Número total de Autores: 1
Tipo de documento: Tese de Doutorado
Instituição: Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica
Data de defesa:
Resumo

O método amostral de gradientes (GS) é um algoritmo recentemente desenvolvido para resolver problemas de otimização não suave. Fazendo uso de informações de primeira ordem da função objetivo, este método generaliza o método de máxima descida, um dos clássicos algoritmos para minimização de funções suaves. Este estudo tem como objetivo desenvolver e explorar diferentes métodos amostrais para a otimização numérica de funções não suaves. Inicialmente, provamos que é possível ter uma convergência global para o método GS na ausência do procedimento chamado "teste de diferenciabilidade". Posteriormente, apresentamos condições que devem ser esperadas para a obtenção de uma taxa de convergência local linear do método GS. Finalmente, um novo método amostral com convergência local superlinear é apresentado, o qual se baseia não somente no cálculo de gradientes, mas também nos valores da função objetivo nos pontos sorteados (AU)

Processo FAPESP: 13/14615-7 - Busca direcional não-monótona em métodos de amostragem de gradiente para otimização não-convexa e não-suave
Beneficiário:Lucas Eduardo Azevedo Simões
Linha de fomento: Bolsas no Brasil - Doutorado