Desempenho e expressividade da função de ativação PReLU em modelos neurais

Bibliographic Details
Main Author: Leite, Eduardo Andre
Publication Date: 2025
Format: Bachelor thesis
Language: eng
Source: Repositório Institucional da UFRGS
Download full: http://hdl.handle.net/10183/285349
Summary: Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais.
id UFRGS-2_8c15c0b45865b448e9ee6d6a23d44d63
oai_identifier_str oai:www.lume.ufrgs.br:10183/285349
network_acronym_str UFRGS-2
network_name_str Repositório Institucional da UFRGS
repository_id_str
spelling Leite, Eduardo AndreTavares, Anderson RochaPinto, Rafael Coimbra2025-02-15T06:57:14Z2025http://hdl.handle.net/10183/285349001241720Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais.This study investigates the efficiency and expressiveness of the Parametric Rectified Linear Unit (PReLU) activation function in deep neural networks, focusing on its ability to replace other widely used functions such as ReLU, Tanh, and Abs. PReLU, an extension of ReLU, introduces a learnable parameter that addresses limitations such as the dying neuron problem while also being capable of assuming the shape of other activation functions. The research hypothesizes that this flexibility can offer practical advantages in complex tasks, such as improved accuracy and/or more efficient learning. To evaluate these hypotheses, experiments were conducted with established architectures, including LeNet and RDNet, using well-known datasets such as MNIST, FashionMNIST, and CIFAR-10. The results indicate that PReLU not only achieves competitive performance but also reduces the need for neurons in certain scenarios, contributing to the development of more compact and expressive models. These findings reinforce its potential as a simple and versatile solution for activation function challenges in neural networks.application/pdfengRedes neuraisOtimização de redes neuraisAprendizado eficienteArquiteturas de redes neuraisActivation functionsDesempenho e expressividade da função de ativação PReLU em modelos neuraisPerformance and Expressiveness of the PReLU Activation Function in Neural Networks info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPorto Alegre, BR-RS2025Ciência da Computação: Ênfase em Ciência da Computação: Bachareladograduaçãoinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001241720.pdf.txt001241720.pdf.txtExtracted Texttext/plain68833http://www.lume.ufrgs.br/bitstream/10183/285349/2/001241720.pdf.txt807bdc66ba1d10d26e53952eef423216MD52ORIGINAL001241720.pdfTexto completoapplication/pdf549233http://www.lume.ufrgs.br/bitstream/10183/285349/1/001241720.pdf4dd3575c91de34771badbea5533d4afaMD5110183/2853492025-02-16 06:55:21.826122oai:www.lume.ufrgs.br:10183/285349Repositório InstitucionalPUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.bropendoar:2025-02-16T09:55:21Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Desempenho e expressividade da função de ativação PReLU em modelos neurais
dc.title.alternative.pt.fl_str_mv Performance and Expressiveness of the PReLU Activation Function in Neural Networks
title Desempenho e expressividade da função de ativação PReLU em modelos neurais
spellingShingle Desempenho e expressividade da função de ativação PReLU em modelos neurais
Leite, Eduardo Andre
Redes neurais
Otimização de redes neurais
Aprendizado eficiente
Arquiteturas de redes neurais
Activation functions
title_short Desempenho e expressividade da função de ativação PReLU em modelos neurais
title_full Desempenho e expressividade da função de ativação PReLU em modelos neurais
title_fullStr Desempenho e expressividade da função de ativação PReLU em modelos neurais
title_full_unstemmed Desempenho e expressividade da função de ativação PReLU em modelos neurais
title_sort Desempenho e expressividade da função de ativação PReLU em modelos neurais
author Leite, Eduardo Andre
author_facet Leite, Eduardo Andre
author_role author
dc.contributor.author.fl_str_mv Leite, Eduardo Andre
dc.contributor.advisor1.fl_str_mv Tavares, Anderson Rocha
dc.contributor.advisor-co1.fl_str_mv Pinto, Rafael Coimbra
contributor_str_mv Tavares, Anderson Rocha
Pinto, Rafael Coimbra
dc.subject.por.fl_str_mv Redes neurais
Otimização de redes neurais
Aprendizado eficiente
Arquiteturas de redes neurais
topic Redes neurais
Otimização de redes neurais
Aprendizado eficiente
Arquiteturas de redes neurais
Activation functions
dc.subject.eng.fl_str_mv Activation functions
description Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais.
publishDate 2025
dc.date.accessioned.fl_str_mv 2025-02-15T06:57:14Z
dc.date.issued.fl_str_mv 2025
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/285349
dc.identifier.nrb.pt_BR.fl_str_mv 001241720
url http://hdl.handle.net/10183/285349
identifier_str_mv 001241720
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Repositório Institucional da UFRGS
collection Repositório Institucional da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/285349/2/001241720.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/285349/1/001241720.pdf
bitstream.checksum.fl_str_mv 807bdc66ba1d10d26e53952eef423216
4dd3575c91de34771badbea5533d4afa
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv lume@ufrgs.br
_version_ 1834472346104102912