Treinamento de redes neurais com incorporação da técnica Backpropagation ao FDIPA

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Goulart, Vitor Monteiro Andrade lattes
Orientador(a): Freire, Wilhelm Passarella lattes
Banca de defesa: Norman, Jose Herskovits lattes, Fonseca, Leonardo Goliatt da lattes
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Juiz de Fora (UFJF)
Programa de Pós-Graduação: Mestrado Acadêmico em Matemática
Departamento: ICE – Instituto de Ciências Exatas
País: Brasil
Palavras-chave em Português:
Área do conhecimento CNPq:
Link de acesso: https://doi.org/10.34019/ufjf/di/2022/00058
https://repositorio.ufjf.br/jspui/handle/ufjf/14054
Resumo: As Redes Neurais Artificiais são modelos matemáticos e computacionais inspirados no funcionamento do cérebro humano. Elas são capazes de aprender e realizar tarefas como reconhecimento de padrões, classificação de imagens, detecção de fraudes em cartão de crédito entre outras aplicações. A estrutura de uma rede é composta de nós (que são os neurônios) ligados por arestas (que são as conexões) distribuídos em camadas. Essas conexões possuem valores (pesos) que representam o quanto aquela ligação é importante para a determinação do resultado final. A computação da rede é dada por uma série de composição de funções (funções de ativação) aplicadas ao produto dos pesos pelos valores atribuídos aos neurônios de cada camada. Para que a rede possa aprender, técnicas de otimização devem ser aplicadas para a determinação dos pesos ótimos da rede. Esse trabalho teve como principal objetivo incorporar a técnica backpropagation ao algoritmo de otimização FDIPA - Feasible Directions Interior Point Algorithm para a obtenção dos pesos ótimos de uma rede neural. Concluída essa tarefa, vários testes foram realizados para a comprovação da eficiência da proposta.