Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
Main Author: | |
---|---|
Publication Date: | 2022 |
Format: | Bachelor thesis |
Language: | por |
Source: | Repositório Institucional da UFRGS |
Download full: | http://hdl.handle.net/10183/248617 |
Summary: | Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA. |
id |
UFRGS-2_1fbf867a8df47d70b48111750f111fa5 |
---|---|
oai_identifier_str |
oai:www.lume.ufrgs.br:10183/248617 |
network_acronym_str |
UFRGS-2 |
network_name_str |
Repositório Institucional da UFRGS |
repository_id_str |
|
spelling |
Fonseca, Juan Suzano daKastensmidt, Fernanda Gusmão de Lima2022-09-10T05:14:24Z2022http://hdl.handle.net/10183/248617001147896Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA.Neural networks have been used for all types of applications, ranging from stock market predictions to image recognition. They can be trained and synthesized into FPGAs using engines or entirely in parallel. However, implementing fully parallelized neural networks can be challenging due to the number of parameters and multiply-accumulate operations required. Optimization is very important to achieve area, power, and performance re quirements. Approximate computation is a paradigm that aims at the tradeoff between the accuracy and cost of a computing operation. Several applications can be considered error-resilient. This means that they do not need 100% accurate operations to work cor rectly. In these cases, it is possible to make approximations in the operations performed, reducing the cost involved, and keeping the accuracy within acceptable limits. It can help optimize neural networks in terms of FPGA resources consumption. This work will investigate the benefits that the fixed-point data quantization technique can bring to the development of neural networks in FPGA.application/pdfporRedes neuraisOtimizaçãoComputação aproximativaConvolutional neural networkApproximate computingFPGAInvestigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLSInvestigando o uso de computação aproximada em uma rede neural convolucional implementada em FPGA utilizando HLS info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPorto Alegre, BR-RS2022Ciência da Computação: Ênfase em Ciência da Computação: Bachareladograduaçãoinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001147896.pdf.txt001147896.pdf.txtExtracted Texttext/plain106320http://www.lume.ufrgs.br/bitstream/10183/248617/2/001147896.pdf.txt0d468bd78a7d75ac57398a65ec3a82b0MD52ORIGINAL001147896.pdfTexto completo (inglês)application/pdf2436166http://www.lume.ufrgs.br/bitstream/10183/248617/1/001147896.pdfce8fe28347be919a38aa93a3f5951febMD5110183/2486172022-09-11 05:08:50.608314oai:www.lume.ufrgs.br:10183/248617Repositório InstitucionalPUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.bropendoar:2022-09-11T08:08:50Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
dc.title.pt_BR.fl_str_mv |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
dc.title.alternative.pt.fl_str_mv |
Investigando o uso de computação aproximada em uma rede neural convolucional implementada em FPGA utilizando HLS |
title |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
spellingShingle |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS Fonseca, Juan Suzano da Redes neurais Otimização Computação aproximativa Convolutional neural network Approximate computing FPGA |
title_short |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
title_full |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
title_fullStr |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
title_full_unstemmed |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
title_sort |
Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS |
author |
Fonseca, Juan Suzano da |
author_facet |
Fonseca, Juan Suzano da |
author_role |
author |
dc.contributor.author.fl_str_mv |
Fonseca, Juan Suzano da |
dc.contributor.advisor1.fl_str_mv |
Kastensmidt, Fernanda Gusmão de Lima |
contributor_str_mv |
Kastensmidt, Fernanda Gusmão de Lima |
dc.subject.por.fl_str_mv |
Redes neurais Otimização Computação aproximativa |
topic |
Redes neurais Otimização Computação aproximativa Convolutional neural network Approximate computing FPGA |
dc.subject.eng.fl_str_mv |
Convolutional neural network Approximate computing FPGA |
description |
Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA. |
publishDate |
2022 |
dc.date.accessioned.fl_str_mv |
2022-09-10T05:14:24Z |
dc.date.issued.fl_str_mv |
2022 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/248617 |
dc.identifier.nrb.pt_BR.fl_str_mv |
001147896 |
url |
http://hdl.handle.net/10183/248617 |
identifier_str_mv |
001147896 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
instacron_str |
UFRGS |
institution |
UFRGS |
reponame_str |
Repositório Institucional da UFRGS |
collection |
Repositório Institucional da UFRGS |
bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/248617/2/001147896.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/248617/1/001147896.pdf |
bitstream.checksum.fl_str_mv |
0d468bd78a7d75ac57398a65ec3a82b0 ce8fe28347be919a38aa93a3f5951feb |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
repository.mail.fl_str_mv |
lume@ufrgs.br |
_version_ |
1834472296804253696 |