Sistema de perceção visual com recurso a tecnologia de smartphones

Detalhes bibliográficos
Autor(a) principal: Pereira, Sara Raquel Monteiro da Silva
Data de Publicação: 2023
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)
Texto Completo: http://hdl.handle.net/10400.22/24001
Resumo: Na presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma.
id RCAP_16eac317c1bec2c9cbd908b81c330488
oai_identifier_str oai:recipp.ipp.pt:10400.22/24001
network_acronym_str RCAP
network_name_str Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)
repository_id_str https://opendoar.ac.uk/repository/7160
spelling Sistema de perceção visual com recurso a tecnologia de smartphonesVisual perception system using smartphone technologydeep learningvisão por computadordatasetrobótica na agriculturadeteção de frutosaplicação móvelinferênciaredes neuronaisandroidNa presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma.Dias, André Miguel PinheiroREPOSITÓRIO P.PORTOPereira, Sara Raquel Monteiro da Silva2023-11-27T16:03:33Z2023-07-262023-07-26T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.22/24001urn:tid:203381076porinfo:eu-repo/semantics/openAccessreponame:Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)instname:FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologiainstacron:RCAAP2025-03-07T10:06:23Zoai:recipp.ipp.pt:10400.22/24001Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireinfo@rcaap.ptopendoar:https://opendoar.ac.uk/repository/71602025-05-29T00:32:34.516166Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) - FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologiafalse
dc.title.none.fl_str_mv Sistema de perceção visual com recurso a tecnologia de smartphones
Visual perception system using smartphone technology
title Sistema de perceção visual com recurso a tecnologia de smartphones
spellingShingle Sistema de perceção visual com recurso a tecnologia de smartphones
Pereira, Sara Raquel Monteiro da Silva
deep learning
visão por computador
dataset
robótica na agricultura
deteção de frutos
aplicação móvel
inferência
redes neuronais
android
title_short Sistema de perceção visual com recurso a tecnologia de smartphones
title_full Sistema de perceção visual com recurso a tecnologia de smartphones
title_fullStr Sistema de perceção visual com recurso a tecnologia de smartphones
title_full_unstemmed Sistema de perceção visual com recurso a tecnologia de smartphones
title_sort Sistema de perceção visual com recurso a tecnologia de smartphones
author Pereira, Sara Raquel Monteiro da Silva
author_facet Pereira, Sara Raquel Monteiro da Silva
author_role author
dc.contributor.none.fl_str_mv Dias, André Miguel Pinheiro
REPOSITÓRIO P.PORTO
dc.contributor.author.fl_str_mv Pereira, Sara Raquel Monteiro da Silva
dc.subject.por.fl_str_mv deep learning
visão por computador
dataset
robótica na agricultura
deteção de frutos
aplicação móvel
inferência
redes neuronais
android
topic deep learning
visão por computador
dataset
robótica na agricultura
deteção de frutos
aplicação móvel
inferência
redes neuronais
android
description Na presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma.
publishDate 2023
dc.date.none.fl_str_mv 2023-11-27T16:03:33Z
2023-07-26
2023-07-26T00:00:00Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10400.22/24001
urn:tid:203381076
url http://hdl.handle.net/10400.22/24001
identifier_str_mv urn:tid:203381076
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)
instname:FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia
instacron:RCAAP
instname_str FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia
instacron_str RCAAP
institution RCAAP
reponame_str Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)
collection Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)
repository.name.fl_str_mv Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) - FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia
repository.mail.fl_str_mv info@rcaap.pt
_version_ 1833600585768632320