Detalhes bibliográficos
Ano de defesa: |
2024 |
Autor(a) principal: |
Ortigossa, Evandro Scudeleti |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Tese
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Biblioteca Digitais de Teses e Dissertações da USP
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://www.teses.usp.br/teses/disponiveis/55/55134/tde-11072024-171752/
|
Resumo: |
Sistemas baseados em Aprendizado de Máquina têm alcançado desempenhos notáveis em muitas tarefas dentro dos mais variados domínios de aplicação. Quando aplicados em áreas sensíveis, ou seja, aquelas que podem impactar na vida e bem-estar de seus usuários, os modelos de aprendizado encontram barreiras. Isso ocorre devido à natureza complexa dos mecanismos de decisão desses modelos, que leva à falta de transparência em seus resultados e os transforma em caixas-pretas, de onde não é possível compreender a lógica do processo de tomada de decisão. Compreender o porquê um modelo fez uma certa predição é tão e muitas vezes até mais importante do que a sua precisão preditiva, revelando a necessidade de equilíbrio entre a interpretabilidade e a acurácia. Embora não seja possível interpretar modelos complexos diretamente, é possível explicá-los. Prover explicações para decisões tomadas por sistemas computacionais pode ser visto como um meio de justificar sua confiabilidade, além de proporcionar um modo efetivo de verificar e corrigir erros antes escondidos dentro da complexidade estrutural do Aprendizado de Máquina. A pesquisa em eXplainable Artificial Intelligence (XAI) vem propondo diversas abordagens neste sentido, sendo os métodos de atribuição de importância de particular interesse devido à sua capacidade de explicar a importância de atributos individuais para a decisão do modelo. No entanto, as principais soluções em atribuição de importância sofrem de instabilidade, com explicações distintas podendo ser geradas a cada aplicação do método em uma mesma instância de dado. Neste cenário, esta pesquisa de doutorado vem para contribuir com o desenvolvimento da explicabilidade ao propor e desenvolver um novo método de atribuição de importâncias denominado T-Explainer. Baseado na expansão em série de Taylor, T-Explainer possui um conjunto de propriedades desejáveis, como precisão local e consistência, enquanto mantém a estabilidade das suas explicações. Finalmente, a eficácia do T-Explainer é demonstrada por meio de um conjunto de experimentos comparativos com outros métodos de atribuição de importâncias do atual estado da arte. |