Deep Convolutional Neural Network (DCNN) para extração automática de rede viária a partir da FUSÃO de dados varredura LASER aerotransportado e imagens de altíssima resolução em ambiente urbano

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Guimarães Filho, Antonio Gaudencio
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Estadual Paulista (Unesp)
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://hdl.handle.net/11449/237021
Resumo: A extração de rodovias é um importante tópico de pesquisa, dada a importância para a gestão de tráfego, desenho urbano, monitoramento de estradas, navegação por satélites e atualização de mapas. O principal problema na extração de vias, em Sensoriamento Remoto, é como descrever as suas características. Algoritmos de classificação de aprendizado profundo possuem a capacidade de extrair características a partir dos dados e não dependem de intervenção humana para construir regras. Atualmente, as Redes Neurais Convolucionais Profundas são o estado da arte da segmentação de rede viária e destacam-se pela capacidade de explorar informação de contexto multinível. Entretanto, com o aumento da resolução espacial, maior detalhamento das vias bem como mais interferências por prédios, sombras, obstruções (p.ex: carros, árvores) que ainda limitam a obtenção da rede viária em áreas urbanas. Uma das estratégias disponíveis é a utilização da fusão de dados de outros sensores/fontes para complementar a informação de extração de objetos. A metodologia proposta utilizou a arquitetura Unet adaptada para fusão de Ortoimagens de altíssima resolução espacial com dados de varredura LASER (LiDAR) do estado do Distrito Federal (DF). Duas abordagens de fusão foram testadas: inicial e multinível. Bem como dois tipos de entrada de dados: imagens intensidade e de modelos de superfície. A fusão inicial com a imagem intensidade alcançou o percentual de 74,92 IoU e 84,68 F1 no conjunto teste e demonstrou melhoria de 2,1% IoU e 1,2% F1 em relação ao modelo treinado sem a fusão na área urbana. Assim como, a fusão inicial com imagem de modelos acrescentou 2,3% IoU e 1,5% F1 em região com menor densidade de vias e menos oclusões. Os resultados demonstraram que a fusão aumenta a ativação da classe via e de outras classes diretamente relacionadas com oclusões, reduz a busca de contexto para inferência da rede em áreas oclusas e aumenta a precisão da segmentação. Implementação e resultados disponíveis em <https://github.com/tunofilho/thesis2022_data>.