Método subgradiente incremental para otimização convexa não diferenciável

Detalhes bibliográficos
Ano de defesa: 2014
Autor(a) principal: Adona, Vando Antônio lattes
Orientador(a): Melo, Jefferson Divino Gonçalves de lattes
Banca de defesa: Melo, Jefferson Divino Gonçalves de, Gonçalves, Max Leandro Nobre, Haeser, Gabriel, Ginart, Jorge Barrios
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Goiás
Programa de Pós-Graduação: Programa de Pós-graduação em Matemática (IME)
Departamento: Instituto de Matemática e Estatística - IME (RG)
País: Brasil
Palavras-chave em Português:
Área do conhecimento CNPq:
Link de acesso: http://repositorio.bc.ufg.br/tede/handle/tede/4367
Resumo: We consider an optimization problem for which the objective function is the sum of convex functions, not necessarily differentiable. We study a subgradient method that executes the iterations incrementally selecting each component function sequentially and processing the subgradient iteration individually. We analyze different alternatives for choosing the step length, highlighting the convergence properties for each case. We also analyze the incremental model in other methods, considering proximal iteration and combinations of subgradient and proximal iterations. This incremental approach has been very successful when the number of component functions is large.