Detecção de plantas daninhas utilizando imagens espectrais e Aprendizado Profundo

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Marinho, Filipe Antunes
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/76/76135/tde-11092024-115349/
Resumo: O Brasil é atualmente o maior exportador de soja do mundo, também é um dos maiores consumidores de agrotóxicos. A aplicação indiscriminada desses defensivos, principalmente como herbicidas, tem profundos impactos ambientais e econômicos. O manejo de plantas daninhas representa um grande problema nos sistemas de produção agrícola. A competição com a cultura por recursos pode resultar na perda de rendimento das colheitas e em custos de produção mais elevados. Devido à eficácia das técnicas de aprendizado profundo para detecção de objetos, novos métodos para aplicação localizada de herbicidas estão sendo desenvolvidos, a técnica pode resultar em uma redução de 88% em seu melhor cenário.1 No entanto, a localização e diferenciação de plantas daninhas usando apenas imagens coloridas convencionais ainda é uma tarefa desafiadora e, frequentemente, os métodos do estado-daarte não são adequados para operação em tempo real. Para enfrentar essas limitações, esse trabalho propõe uma adaptação do detector de objetos YOLO para utilização de imagens espectrais e um protótipo de câmera de baixo custo para desenvolver um sistema seletivo de pulverização de herbicidas. Um conjunto de dados contendo três grupos diferentes de plantas daninhas foi coletado em um ambiente controlado e diferentes técnicas de fusão de informações foram investigadas. Os métodos de Mid-fusion demonstraram desempenho superior em relação às outras técnicas de fusão e os resultados de base. O melhor modelo selecionado combina a imagem colorida de câmeras convencionais as imagens da banda espectral da região do verde do protótipo desenvolvido, obtida através de um filtro passa banda na faixa 543 585nm. Esse modelo fornece uma mAP de 87,24%, métrica F2 de 83,94% e atinge 3,67 FPS sem hardware especializado de vídeo no conjunto de dados de teste. Este trabalho mostra a viabilidade do sistema proposto e investiga o uso de bandas espectrais personalizadas e a fusão de diferentes canais de cor em Redes Neurais Convolucionais Profundas de estágio único para aplicações agrícolas.