Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS

Bibliographic Details
Main Author: Fonseca, Juan Suzano da
Publication Date: 2022
Format: Bachelor thesis
Language: por
Source: Repositório Institucional da UFRGS
Download full: http://hdl.handle.net/10183/248617
Summary: Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA.
id UFRGS-2_1fbf867a8df47d70b48111750f111fa5
oai_identifier_str oai:www.lume.ufrgs.br:10183/248617
network_acronym_str UFRGS-2
network_name_str Repositório Institucional da UFRGS
repository_id_str
spelling Fonseca, Juan Suzano daKastensmidt, Fernanda Gusmão de Lima2022-09-10T05:14:24Z2022http://hdl.handle.net/10183/248617001147896Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA.Neural networks have been used for all types of applications, ranging from stock market predictions to image recognition. They can be trained and synthesized into FPGAs using engines or entirely in parallel. However, implementing fully parallelized neural networks can be challenging due to the number of parameters and multiply-accumulate operations required. Optimization is very important to achieve area, power, and performance re quirements. Approximate computation is a paradigm that aims at the tradeoff between the accuracy and cost of a computing operation. Several applications can be considered error-resilient. This means that they do not need 100% accurate operations to work cor rectly. In these cases, it is possible to make approximations in the operations performed, reducing the cost involved, and keeping the accuracy within acceptable limits. It can help optimize neural networks in terms of FPGA resources consumption. This work will investigate the benefits that the fixed-point data quantization technique can bring to the development of neural networks in FPGA.application/pdfporRedes neuraisOtimizaçãoComputação aproximativaConvolutional neural networkApproximate computingFPGAInvestigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLSInvestigando o uso de computação aproximada em uma rede neural convolucional implementada em FPGA utilizando HLS info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPorto Alegre, BR-RS2022Ciência da Computação: Ênfase em Ciência da Computação: Bachareladograduaçãoinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001147896.pdf.txt001147896.pdf.txtExtracted Texttext/plain106320http://www.lume.ufrgs.br/bitstream/10183/248617/2/001147896.pdf.txt0d468bd78a7d75ac57398a65ec3a82b0MD52ORIGINAL001147896.pdfTexto completo (inglês)application/pdf2436166http://www.lume.ufrgs.br/bitstream/10183/248617/1/001147896.pdfce8fe28347be919a38aa93a3f5951febMD5110183/2486172022-09-11 05:08:50.608314oai:www.lume.ufrgs.br:10183/248617Repositório InstitucionalPUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.bropendoar:2022-09-11T08:08:50Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
dc.title.alternative.pt.fl_str_mv Investigando o uso de computação aproximada em uma rede neural convolucional implementada em FPGA utilizando HLS
title Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
spellingShingle Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
Fonseca, Juan Suzano da
Redes neurais
Otimização
Computação aproximativa
Convolutional neural network
Approximate computing
FPGA
title_short Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
title_full Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
title_fullStr Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
title_full_unstemmed Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
title_sort Investigating the use of approximate computing on a case-study neural network implemented Into FPGA by using HLS
author Fonseca, Juan Suzano da
author_facet Fonseca, Juan Suzano da
author_role author
dc.contributor.author.fl_str_mv Fonseca, Juan Suzano da
dc.contributor.advisor1.fl_str_mv Kastensmidt, Fernanda Gusmão de Lima
contributor_str_mv Kastensmidt, Fernanda Gusmão de Lima
dc.subject.por.fl_str_mv Redes neurais
Otimização
Computação aproximativa
topic Redes neurais
Otimização
Computação aproximativa
Convolutional neural network
Approximate computing
FPGA
dc.subject.eng.fl_str_mv Convolutional neural network
Approximate computing
FPGA
description Redes neurais tem sido utilizadas em diferentes aplicações, de previsões comportamentais do mercado de ações a reconhecimento de imagem. Elas podem ser treinadas, sintetizadas e implantadas em FPGA usando circuitos especializados ou de forma totalmente paralela. Implementar redes neurais totalmente paralelizadas pode ser desafiador devido ao número de parametros e operações de multiplicar-acumular exigidos. A otimização é muito importante para alcançar os requisitos de área, potência e desempenho. Computação aproximada é um paradigma que visa a troca entre a precisão e o custo de uma ope ração computacional. Várias aplicações podem ser consideradas resistentes a erros. Isto significa que elas não precisam de operações 100% precisas para funcionar corretamente. Nesses casos, é possível fazer aproximações nas operações realizadas, reduzindo o custo envolvido e mantendo a precisão dentro de limites aceitáveis. Isto pode ajudar a otimizar as redes neurais em termos de consumo de recursos da FPGA. Este trabalho investigará os benefícios trazidos pela técnica de quantização em ponto fixo para o desenvolvimento de redes neurais em FPGA.
publishDate 2022
dc.date.accessioned.fl_str_mv 2022-09-10T05:14:24Z
dc.date.issued.fl_str_mv 2022
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/248617
dc.identifier.nrb.pt_BR.fl_str_mv 001147896
url http://hdl.handle.net/10183/248617
identifier_str_mv 001147896
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Repositório Institucional da UFRGS
collection Repositório Institucional da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/248617/2/001147896.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/248617/1/001147896.pdf
bitstream.checksum.fl_str_mv 0d468bd78a7d75ac57398a65ec3a82b0
ce8fe28347be919a38aa93a3f5951feb
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv lume@ufrgs.br
_version_ 1834472296804253696