Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: NÓBREGA, Caio Santos Bezerra.
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Campina Grande
Brasil
Centro de Engenharia Elétrica e Informática - CEEI
PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
UFCG
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
Resumo: O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.