Explica??es visuais aplicadas a redes neurais convolucionais unidimensionais com ?nfase no reconhecimento humano de atividades

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Aquino, Gustavo de Aquino e
Outros Autores: http://lattes.cnpq.br/3050968587529962, https://orcid.org/0000-0003-3299-3337
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal do Amazonas
Faculdade de Tecnologia
Brasil
UFAM
Programa de P?s-gradua??o em Engenharia El?trica
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://tede.ufam.edu.br/handle/tede/10510
Resumo: O Reconhecimento Humano de Atividades (HAR) ? uma ?rea de crescente import?ncia, especialmente com a populariza??o dos dispositivos vest?veis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas s?o impulsionadas por dados e t?m a capacidade de aprender padr?es complexos nos sinais que podem ser usados para classificar atividades humanas. No entanto, embora 1D CNNs possam alcan?ar resultados num?ricos expressivos, compreender e explicar a tomada de decis?o desses modelos ainda ? um desafio. Este trabalho prop?e duas abordagens inovadoras para gerar explica??es visuais em 1D CNNs aplicadas ao HAR, a primeira utilizando Gradient-weighted Class Activation Mapping (grad-CAM) e a segunda com t-Distributed Stochastic Neighbor Embeddings (t-SNE). Nosso objetivo ?, por meio das visualiza??es, entender e explicar os padr?es complexos aprendidos pelos modelos 1D CNNs durante o processo de treinamento, propondo visualiza??es que possibilitam o entendimento do processo de tomada de decis?o dos modelos. As explica??es propostas permitem a identifica??o de vieses nos modelos e nos conjuntos de dados, a an?lise de como a abordagem de valida??o impacta o aprendizado do modelo e tamb?m a escolha de um melhor modelo, observando n?o apenas resultados num?ricos, mas tamb?m qualitativos. Em geral, com base nos experimentos propostos neste trabalho, a combina??o de t?cnicas de intelig?ncia artificial explic?vel com aprendizado profundo tem potencial para proporcionar uma vis?o hol?stica sobre a capacidade dos modelos treinados, tornando poss?vel criar explica??es e formular hip?teses sobre a tomada de decis?o dos modelos.