Treinamento de redes neurais com incorporação da técnica Backpropagation ao FDIPA
Ano de defesa: | 2022 |
---|---|
Autor(a) principal: | |
Orientador(a): | |
Banca de defesa: | , |
Tipo de documento: | Dissertação |
Tipo de acesso: | Acesso aberto |
Idioma: | por |
Instituição de defesa: |
Universidade Federal de Juiz de Fora (UFJF)
|
Programa de Pós-Graduação: |
Mestrado Acadêmico em Matemática
|
Departamento: |
ICE – Instituto de Ciências Exatas
|
País: |
Brasil
|
Palavras-chave em Português: | |
Área do conhecimento CNPq: | |
Link de acesso: | https://doi.org/10.34019/ufjf/di/2022/00058 https://repositorio.ufjf.br/jspui/handle/ufjf/14054 |
Resumo: | As Redes Neurais Artificiais são modelos matemáticos e computacionais inspirados no funcionamento do cérebro humano. Elas são capazes de aprender e realizar tarefas como reconhecimento de padrões, classificação de imagens, detecção de fraudes em cartão de crédito entre outras aplicações. A estrutura de uma rede é composta de nós (que são os neurônios) ligados por arestas (que são as conexões) distribuídos em camadas. Essas conexões possuem valores (pesos) que representam o quanto aquela ligação é importante para a determinação do resultado final. A computação da rede é dada por uma série de composição de funções (funções de ativação) aplicadas ao produto dos pesos pelos valores atribuídos aos neurônios de cada camada. Para que a rede possa aprender, técnicas de otimização devem ser aplicadas para a determinação dos pesos ótimos da rede. Esse trabalho teve como principal objetivo incorporar a técnica backpropagation ao algoritmo de otimização FDIPA - Feasible Directions Interior Point Algorithm para a obtenção dos pesos ótimos de uma rede neural. Concluída essa tarefa, vários testes foram realizados para a comprovação da eficiência da proposta. |