Integrando técnicas de aprendizado de máquina para descoberta de conhecimento interpretável de prontuários eletrônicos de pacientes

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: Clementino Junior, Jose Maria
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/55/55134/tde-15032022-143926/
Resumo: Um desafio a ser superado na área de Aprendizado de Máquina (AM) é a capacidade dos modelos serem explicáveis e apresentarem um alto nível de interpretabilidade e transparência. É possível observar que grande parte dos métodos preocupam-se somente com métricas quantitativas, deixando de explorar a interpretabilidade dos resultados obtidos. Em algumas áreas, tal como a medicina, além da acurácia obtida pelos métodos computacionais é importante que os profissionais compreendam o porquê de uma decisão foi tomada. A importância dada à explicabilidade da decisão do método se justifica por se tratar de áreas críticas, onde uma decisão errada pode causar uma grande perda financeira, a privacidade ou a saúde. Ao encontro desse cenário um campo de pesquisa denominado Explainable Artificial Intelligence (XAI) tem surgido com interesse de desenvolver métodos que priorizam explicabilidade, tanto do funcionamento do modelo quanto da explicação das decisões indicadas. Portanto, este trabalho, tem por objetivo a criação de métodos capazes de extrair conhecimento em registros médicos eletrônicos priorizando a explicabilidade dos resultados obtidos. O primeiro método denominado Bag-of-Attributes Representation (BOAR) proporciona uma representação capaz de superar o problema de interoperabilidade de bases de dados médicas e servir como entrada para diversos algoritmos de agrupamento. Após o processo de descoberta de padrões por meio dos algoritmos de agrupamento, o segundo método Multilevel Clustering Explainer (MCE) tem como ideia principal reunir informações descritivas e visuais sobre a composição dos padrões encontrados, por meio da apresentação das variáveis que mais influenciaram na decisão do algoritmo. O MCE tem a flexibilidade de fornecer explicações em dois níveis: no global apresentando as principais características dos objetos que determinaram a formação de um determinado cluster e no local a influência considerando um único objeto. O MCE possui uma grande capacidade de modularização de seus parâmetros em relação a estrutura de funcionamento e de apresentação dos resultados, proporcionando ao profissional de saúde um melhor entendimento das informações e padrões encontrados.O MCE mostrou ser capaz de fornecer informações explicativas que permitem uma análise top-down na compreensão da composição, relacionamento e inconsistências dos clusters Neste trabalho. O MCE permitiu a compreensão de quais procedimentos médicos mais influenciaram para a caracterização de diferentes clusters.