Explica??es visuais aplicadas a redes neurais convolucionais unidimensionais com ?nfase no reconhecimento humano de atividades
Ano de defesa: | 2024 |
---|---|
Autor(a) principal: | |
Outros Autores: | , |
Orientador(a): | |
Banca de defesa: | |
Tipo de documento: | Tese |
Tipo de acesso: | Acesso aberto |
Idioma: | por |
Instituição de defesa: |
Universidade Federal do Amazonas
Faculdade de Tecnologia Brasil UFAM Programa de P?s-gradua??o em Engenharia El?trica |
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: | |
Link de acesso: | https://tede.ufam.edu.br/handle/tede/10510 |
Resumo: | O Reconhecimento Humano de Atividades (HAR) ? uma ?rea de crescente import?ncia, especialmente com a populariza??o dos dispositivos vest?veis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas s?o impulsionadas por dados e t?m a capacidade de aprender padr?es complexos nos sinais que podem ser usados para classificar atividades humanas. No entanto, embora 1D CNNs possam alcan?ar resultados num?ricos expressivos, compreender e explicar a tomada de decis?o desses modelos ainda ? um desafio. Este trabalho prop?e duas abordagens inovadoras para gerar explica??es visuais em 1D CNNs aplicadas ao HAR, a primeira utilizando Gradient-weighted Class Activation Mapping (grad-CAM) e a segunda com t-Distributed Stochastic Neighbor Embeddings (t-SNE). Nosso objetivo ?, por meio das visualiza??es, entender e explicar os padr?es complexos aprendidos pelos modelos 1D CNNs durante o processo de treinamento, propondo visualiza??es que possibilitam o entendimento do processo de tomada de decis?o dos modelos. As explica??es propostas permitem a identifica??o de vieses nos modelos e nos conjuntos de dados, a an?lise de como a abordagem de valida??o impacta o aprendizado do modelo e tamb?m a escolha de um melhor modelo, observando n?o apenas resultados num?ricos, mas tamb?m qualitativos. Em geral, com base nos experimentos propostos neste trabalho, a combina??o de t?cnicas de intelig?ncia artificial explic?vel com aprendizado profundo tem potencial para proporcionar uma vis?o hol?stica sobre a capacidade dos modelos treinados, tornando poss?vel criar explica??es e formular hip?teses sobre a tomada de decis?o dos modelos. |