Detalhes bibliográficos
Ano de defesa: |
2003 |
Autor(a) principal: |
Orlando, Roberto Carlos |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Tese
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Federal de Viçosa
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
http://www.locus.ufv.br/handle/123456789/9587
|
Resumo: |
A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente. |