Detalhes bibliográficos
Ano de defesa: |
2024 |
Autor(a) principal: |
Marinho, Filipe Antunes |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Biblioteca Digitais de Teses e Dissertações da USP
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://www.teses.usp.br/teses/disponiveis/76/76135/tde-11092024-115349/
|
Resumo: |
O Brasil é atualmente o maior exportador de soja do mundo, também é um dos maiores consumidores de agrotóxicos. A aplicação indiscriminada desses defensivos, principalmente como herbicidas, tem profundos impactos ambientais e econômicos. O manejo de plantas daninhas representa um grande problema nos sistemas de produção agrícola. A competição com a cultura por recursos pode resultar na perda de rendimento das colheitas e em custos de produção mais elevados. Devido à eficácia das técnicas de aprendizado profundo para detecção de objetos, novos métodos para aplicação localizada de herbicidas estão sendo desenvolvidos, a técnica pode resultar em uma redução de 88% em seu melhor cenário.1 No entanto, a localização e diferenciação de plantas daninhas usando apenas imagens coloridas convencionais ainda é uma tarefa desafiadora e, frequentemente, os métodos do estado-daarte não são adequados para operação em tempo real. Para enfrentar essas limitações, esse trabalho propõe uma adaptação do detector de objetos YOLO para utilização de imagens espectrais e um protótipo de câmera de baixo custo para desenvolver um sistema seletivo de pulverização de herbicidas. Um conjunto de dados contendo três grupos diferentes de plantas daninhas foi coletado em um ambiente controlado e diferentes técnicas de fusão de informações foram investigadas. Os métodos de Mid-fusion demonstraram desempenho superior em relação às outras técnicas de fusão e os resultados de base. O melhor modelo selecionado combina a imagem colorida de câmeras convencionais as imagens da banda espectral da região do verde do protótipo desenvolvido, obtida através de um filtro passa banda na faixa 543 585nm. Esse modelo fornece uma mAP de 87,24%, métrica F2 de 83,94% e atinge 3,67 FPS sem hardware especializado de vídeo no conjunto de dados de teste. Este trabalho mostra a viabilidade do sistema proposto e investiga o uso de bandas espectrais personalizadas e a fusão de diferentes canais de cor em Redes Neurais Convolucionais Profundas de estágio único para aplicações agrícolas. |