Computing inexact K-steepest descent directions and a new line search procedure for vector optimization

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Vieira, Flávio Pinto lattes
Orientador(a): Ferreira, Orizon Pereira lattes
Banca de defesa: Ferreira, Orizon Pereira, Pérez, Luis Román Lucambio, Prudente, Leandro da Fonseca, Fukuda, Ellen Hidem, Iusem, Alfredo Noel
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Universidade Federal de Goiás
Programa de Pós-Graduação: Programa de Pós-graduação em Matemática (IME)
Departamento: Instituto de Matemática e Estatística - IME (RG)
País: Brasil
Palavras-chave em Português:
Palavras-chave em Inglês:
Área do conhecimento CNPq:
Link de acesso: http://repositorio.bc.ufg.br/tede/handle/tede/12052
Resumo: Neste trabalho, propomos uma nova busca linear para otimização vetorial e uma forma de calcular a direção σ-aproximada de máxima descida. Yunda Dong, em 2010 e 2012, introduziu um procedimento de busca linear para o método de Gradiente Conjugado usando apenas informações de primeira ordem, ou seja, sem utilizar valores funcionais. Estenderemos seus trabalhos para Otimização Vetorial. Estudaremos o método de gradiente conjugado, mostrando a convergência quando são utilizados os seguintes βk's: Fletcher-Reeves, conjugate descent, Dai-Yuan, Polak-Ribière-Polyak e Hestenes-Stiefel. Também usamos essa mesma busca linear para o método tipo-gradiente, mostrando sua convergência. Em 2004, Iusem e Graña Drummond introduziram o conceito de σ-aproximada K-diereção de máxima descida. Eles mostraram que ao substituir a direção de Cauchy por essas direções, o resultado de convergência da sequência gerada é o mesmo: todo ponto de acumulação é crítico. Apresentaremos um procedimento eficiente para calcular essas direções quando o cone K for finitamente gerado.