Desempenho e expressividade da função de ativação PReLU em modelos neurais
| Main Author: | |
|---|---|
| Publication Date: | 2025 |
| Format: | Bachelor thesis |
| Language: | eng |
| Source: | Repositório Institucional da UFRGS |
| Download full: | http://hdl.handle.net/10183/285349 |
Summary: | Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais. |
| id |
UFRGS-2_8c15c0b45865b448e9ee6d6a23d44d63 |
|---|---|
| oai_identifier_str |
oai:www.lume.ufrgs.br:10183/285349 |
| network_acronym_str |
UFRGS-2 |
| network_name_str |
Repositório Institucional da UFRGS |
| repository_id_str |
|
| spelling |
Leite, Eduardo AndreTavares, Anderson RochaPinto, Rafael Coimbra2025-02-15T06:57:14Z2025http://hdl.handle.net/10183/285349001241720Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais.This study investigates the efficiency and expressiveness of the Parametric Rectified Linear Unit (PReLU) activation function in deep neural networks, focusing on its ability to replace other widely used functions such as ReLU, Tanh, and Abs. PReLU, an extension of ReLU, introduces a learnable parameter that addresses limitations such as the dying neuron problem while also being capable of assuming the shape of other activation functions. The research hypothesizes that this flexibility can offer practical advantages in complex tasks, such as improved accuracy and/or more efficient learning. To evaluate these hypotheses, experiments were conducted with established architectures, including LeNet and RDNet, using well-known datasets such as MNIST, FashionMNIST, and CIFAR-10. The results indicate that PReLU not only achieves competitive performance but also reduces the need for neurons in certain scenarios, contributing to the development of more compact and expressive models. These findings reinforce its potential as a simple and versatile solution for activation function challenges in neural networks.application/pdfengRedes neuraisOtimização de redes neuraisAprendizado eficienteArquiteturas de redes neuraisActivation functionsDesempenho e expressividade da função de ativação PReLU em modelos neuraisPerformance and Expressiveness of the PReLU Activation Function in Neural Networks info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPorto Alegre, BR-RS2025Ciência da Computação: Ênfase em Ciência da Computação: Bachareladograduaçãoinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001241720.pdf.txt001241720.pdf.txtExtracted Texttext/plain68833http://www.lume.ufrgs.br/bitstream/10183/285349/2/001241720.pdf.txt807bdc66ba1d10d26e53952eef423216MD52ORIGINAL001241720.pdfTexto completoapplication/pdf549233http://www.lume.ufrgs.br/bitstream/10183/285349/1/001241720.pdf4dd3575c91de34771badbea5533d4afaMD5110183/2853492025-02-16 06:55:21.826122oai:www.lume.ufrgs.br:10183/285349Repositório InstitucionalPUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.bropendoar:2025-02-16T09:55:21Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
| dc.title.pt_BR.fl_str_mv |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| dc.title.alternative.pt.fl_str_mv |
Performance and Expressiveness of the PReLU Activation Function in Neural Networks |
| title |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| spellingShingle |
Desempenho e expressividade da função de ativação PReLU em modelos neurais Leite, Eduardo Andre Redes neurais Otimização de redes neurais Aprendizado eficiente Arquiteturas de redes neurais Activation functions |
| title_short |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| title_full |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| title_fullStr |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| title_full_unstemmed |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| title_sort |
Desempenho e expressividade da função de ativação PReLU em modelos neurais |
| author |
Leite, Eduardo Andre |
| author_facet |
Leite, Eduardo Andre |
| author_role |
author |
| dc.contributor.author.fl_str_mv |
Leite, Eduardo Andre |
| dc.contributor.advisor1.fl_str_mv |
Tavares, Anderson Rocha |
| dc.contributor.advisor-co1.fl_str_mv |
Pinto, Rafael Coimbra |
| contributor_str_mv |
Tavares, Anderson Rocha Pinto, Rafael Coimbra |
| dc.subject.por.fl_str_mv |
Redes neurais Otimização de redes neurais Aprendizado eficiente Arquiteturas de redes neurais |
| topic |
Redes neurais Otimização de redes neurais Aprendizado eficiente Arquiteturas de redes neurais Activation functions |
| dc.subject.eng.fl_str_mv |
Activation functions |
| description |
Este estudo investiga a eficiência e expressividade da função de ativação PReLU (Parametric Rectified Linear Unit) em redes neurais profundas, com foco em sua capacidade de substituir outras funções amplamente utilizadas, como ReLU, Tanh e Abs. A PReLU, uma extensão da ReLU, destaca-se por introduzir um parâmetro adaptável que resolve limitações como o problema de unidades mortas, além de ser capaz de assumir a forma de outras funções de ativação. A pesquisa parte da hipótese de que essa flexibilidade pode oferecer vantagens práticas emtarefas complexas, como maior acurácia e/ou aprendizado mais eficiente. Para avaliar essas hipóteses, foram realizados experimentos com arquiteturas consagradas, como LeNet e RDNet, utilizando datasets de classificação de imagens amplamente reconhecidos, como MNIST, FashionMNIST e CIFAR-10. Os resultados indicam que a PReLU apresenta um desempenho competitivo em relação às demais funções, frequentemente apresentando valores de acurácia superiores. Estes achados reforçam seu potencial como uma solução simples e versátil para problemas de classificação de imagens em redes neurais. |
| publishDate |
2025 |
| dc.date.accessioned.fl_str_mv |
2025-02-15T06:57:14Z |
| dc.date.issued.fl_str_mv |
2025 |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/285349 |
| dc.identifier.nrb.pt_BR.fl_str_mv |
001241720 |
| url |
http://hdl.handle.net/10183/285349 |
| identifier_str_mv |
001241720 |
| dc.language.iso.fl_str_mv |
eng |
| language |
eng |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
| instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
| instacron_str |
UFRGS |
| institution |
UFRGS |
| reponame_str |
Repositório Institucional da UFRGS |
| collection |
Repositório Institucional da UFRGS |
| bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/285349/2/001241720.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/285349/1/001241720.pdf |
| bitstream.checksum.fl_str_mv |
807bdc66ba1d10d26e53952eef423216 4dd3575c91de34771badbea5533d4afa |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
| repository.name.fl_str_mv |
Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
| repository.mail.fl_str_mv |
lume@ufrgs.br |
| _version_ |
1834472346104102912 |