Detalhes bibliográficos
Ano de defesa: |
2022 |
Autor(a) principal: |
Vallim, Marco Vinicius Bhering de Aguiar |
Orientador(a): |
Silva, Leandro Augusto da |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Presbiteriana Mackenzie
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://dspace.mackenzie.br/handle/10899/32540
|
Resumo: |
A pandemia causada pela COVID-19 em decorrência da infecção causada pelo vírus SARS COV 2 mudou a dinâmica da humanidade e mobilizou várias áreas científicas para explorar soluções diagnósticas e terapias alternativas de maneira sem precedentes. Dessa forma, a Inteligência Artificial (IA) emerge como aliada para compreender o comporta mento do vírus, sendo usada como ferramenta de suporte à tomada de decisão na definição de diagnósticos acerca da infecção pelo vírus. Porém, um dos principais desafios apresentados no uso de IA na área de saúde decorre do fato de que os algoritmos com melhores resultados nas tarefas de predição são caixa preta e, portanto, não é possível interpretar a lógica da tomada de decisão do algoritmo. Isso é um problema porque nessa área é essencial equilibrar precisão e interpretabilidade, visto que os profissionais de saúde precisam entender os motivos que levam o sistema a gerar determinadas recomendações. Dessa forma, é necessário que os modelos de IA sejam capazes de fornecer altos índices de precisão em suas recomendações, mas também precisam ser interpretáveis pelos usuários, apontando para uma abordagem de Inteligência Artificial Explicável. Para buscar otimizar o tradeoff entre desempenho e explicabilidade, o estudo aqui apresentado utiliza um modelo híbrido com dois algoritmos interpretáveis (Mapas Auto-Organizáveis, SOM e Classificação Baseada em Associação, CBA) para diagnosticar por meio de hemogramas simples a infecção pelo vírus causado da COVID-19 e, assim, buscando criar um modelo de Inteligência Artificial Explicável que seja uma ferramenta de suporte na tomada da decisão diagnóstica desta doença. Esse estudo apresentou índices de desempenho superiores a quaisquer experimentos feitos com CBA ou SOM individualmente neste trabalho, chegando a uma acurácia média superior a 74,5%, além de apontar as variáveis mais relevantes relacionadas ao diagnóstico de Covid-19, como Hematócritos, Plaquetas, Linfócitos Absolutos, Basófilos Absolutos e Eosinófilos Absolutos. Também foi possível extrair intervalos de valores para essas variáveis que apresentam maior probabilidade de infecção. |