Sistema de perceção visual com recurso a tecnologia de smartphones
| Autor(a) principal: | |
|---|---|
| Data de Publicação: | 2023 |
| Tipo de documento: | Dissertação |
| Idioma: | por |
| Título da fonte: | Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) |
| Texto Completo: | http://hdl.handle.net/10400.22/24001 |
Resumo: | Na presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma. |
| id |
RCAP_16eac317c1bec2c9cbd908b81c330488 |
|---|---|
| oai_identifier_str |
oai:recipp.ipp.pt:10400.22/24001 |
| network_acronym_str |
RCAP |
| network_name_str |
Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) |
| repository_id_str |
https://opendoar.ac.uk/repository/7160 |
| spelling |
Sistema de perceção visual com recurso a tecnologia de smartphonesVisual perception system using smartphone technologydeep learningvisão por computadordatasetrobótica na agriculturadeteção de frutosaplicação móvelinferênciaredes neuronaisandroidNa presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma.Dias, André Miguel PinheiroREPOSITÓRIO P.PORTOPereira, Sara Raquel Monteiro da Silva2023-11-27T16:03:33Z2023-07-262023-07-26T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.22/24001urn:tid:203381076porinfo:eu-repo/semantics/openAccessreponame:Repositórios Científicos de Acesso Aberto de Portugal (RCAAP)instname:FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologiainstacron:RCAAP2025-03-07T10:06:23Zoai:recipp.ipp.pt:10400.22/24001Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireinfo@rcaap.ptopendoar:https://opendoar.ac.uk/repository/71602025-05-29T00:32:34.516166Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) - FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologiafalse |
| dc.title.none.fl_str_mv |
Sistema de perceção visual com recurso a tecnologia de smartphones Visual perception system using smartphone technology |
| title |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| spellingShingle |
Sistema de perceção visual com recurso a tecnologia de smartphones Pereira, Sara Raquel Monteiro da Silva deep learning visão por computador dataset robótica na agricultura deteção de frutos aplicação móvel inferência redes neuronais android |
| title_short |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| title_full |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| title_fullStr |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| title_full_unstemmed |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| title_sort |
Sistema de perceção visual com recurso a tecnologia de smartphones |
| author |
Pereira, Sara Raquel Monteiro da Silva |
| author_facet |
Pereira, Sara Raquel Monteiro da Silva |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Dias, André Miguel Pinheiro REPOSITÓRIO P.PORTO |
| dc.contributor.author.fl_str_mv |
Pereira, Sara Raquel Monteiro da Silva |
| dc.subject.por.fl_str_mv |
deep learning visão por computador dataset robótica na agricultura deteção de frutos aplicação móvel inferência redes neuronais android |
| topic |
deep learning visão por computador dataset robótica na agricultura deteção de frutos aplicação móvel inferência redes neuronais android |
| description |
Na presente dissertação, desenvolvida no INESC TEC (Instituto de Engenharia de Sistemas e Computadores, Tecnologia e Ciência) nos laboratórios do CRIIS (Center for Robotics in Industry and Intelligent Systems), pretende-se explorar a capacidade de modelos deep learning no ambiente Android, através da comparação e avaliação de modelos YOLOv5 (YOLOv5s e YOLOv5n), YOLOv8 e Single Shot Multibox De tector (SSD) MobileNetv2. Este tópico encontra-se inserido no desenvolvimento do projeto Orioos – Solução robótica autónoma de baixo custo para a monitorização e a fenotipagem de culturas permanentes. Este consiste num robô em que o sistema de visão e perceção do ambiente é exclusivo a uma aplicação Android. Além de reduzir significativamente o custo do robô, esta abordagem permite uma reutilização/reciclagem de smartphones mais antigos. Para o treino dos modelos foram utilizados 2 datasets de uvas e troncos de videira, disponíveis online, e foi criado um dataset de QR codes envolvidos na vinha. Como resultado dos treinos, utilizou-se a ferramenta FittyOne e um dataset de teste com imagens que os modelos nunca analisaram, de modo a comparar os resultados de ground truth com deteções efetuadas por cada modelo com uma confiança igual ou superior a 25 %. Verificou-se que os modelos YOLOv5n, YOLOv5s e YO LOv8n destacaram-se com os resultados mais positivos. A deteção de QR codes apresentou valores mais elevados de precisão, seguida da identificação de uvas. Na deteção de troncos, os modelos obtiveram valores menos positivos, sendo que o valor mais elevado de F1 score foi de 23 %. De todos os modelos, o modelo SSD MobineNetv2 apresentou, nas deteções de uvas e de troncos, resultados menos satisfatórios. Relativamente ao tempo de processamento no CPU de um computador, os modelos SSD MobineNetv2, YOLOv5n, YOLOV5s e YOLOv8n destacaram-se com valores inferiores a 600 milissegundos. Após a análise num computador, foram realizados 3 testes de campo para avaliar os modelos YOLOv5s, YOLOv5n e SSD MobineNetv2 num smartphone. Os modelos YOLO destacaram-se com o maior número de deteções correctas e as mais elevadas precisões. Na mesma área de análise, o modelo SSD MobineNetv2 necessitou de uma maior proximidade do objeto para que este fosse detectado. Posteriormente, foram analisados os tempos de processamento no CPU de um smartphone e verificou-se que os valores mais baixos são do modelo SSD MobineNetv2. Este modelo revelou-se 33 % mais rápido do que o modelo YOLOv5n, o modelo mais rápido da rede YOLO.O modelo YOLOv5s, apesar de ter mais precisão na deteção, tem um tempo de inferência mais longo, pelo que não consegue acompanhar as mudanças de perspetiva. Para a aplicação Orioos, foi adicionada a capacidade de descodificar os QR codes quando estes são detetados por uma rede neural. A identificação e descodificação de QR Codes permitirá ao robô ter informação externa, como a informação da docking station mais próxima, ou a localização precisa do local, de forma a eliminar erros incrementais que existem na navegação autónoma. |
| publishDate |
2023 |
| dc.date.none.fl_str_mv |
2023-11-27T16:03:33Z 2023-07-26 2023-07-26T00:00:00Z |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10400.22/24001 urn:tid:203381076 |
| url |
http://hdl.handle.net/10400.22/24001 |
| identifier_str_mv |
urn:tid:203381076 |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.source.none.fl_str_mv |
reponame:Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) instname:FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia instacron:RCAAP |
| instname_str |
FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia |
| instacron_str |
RCAAP |
| institution |
RCAAP |
| reponame_str |
Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) |
| collection |
Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) |
| repository.name.fl_str_mv |
Repositórios Científicos de Acesso Aberto de Portugal (RCAAP) - FCCN, serviços digitais da FCT – Fundação para a Ciência e a Tecnologia |
| repository.mail.fl_str_mv |
info@rcaap.pt |
| _version_ |
1833600585768632320 |