Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: MAIA, Matheus Gomes.
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Campina Grande
Brasil
Centro de Engenharia Elétrica e Informática - CEEI
PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
UFCG
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
Resumo: As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.