Detalhes bibliográficos
Ano de defesa: |
2023 |
Autor(a) principal: |
Barth, Vitor Bruno de Oliveira |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Biblioteca Digitais de Teses e Dissertações da USP
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://www.teses.usp.br/teses/disponiveis/18/18153/tde-10042023-154512/
|
Resumo: |
A transparência em algoritmos de Inteligência Artificial é o foco de um novo ramo de pesquisa, chamado Inteligência Artificial Explicável, o qual sugere que especialistas devam ser capazes de replicar os resultados encontrados pelo modelo, bem como atualizá-los quando os resultados não estão de acordo com seus conhecimentos prévios a respeito do domínio analisado. Redes Bayesianas são um tipo de modelo explicável construídos sobre o formalismo de teoria da probabilidade, capazes de executar com transparência tarefas de previsão, classificação e descobertas de sistemas baseadas em dados. No entanto, o aprendizado de Redes Bayesianas baseado em dados não é observável, dificultando a seleção de modelos quando não se há conhecimentos prévios do sistema. Este trabalho apresenta uma nova metodologia de aprendizado de Redes Bayesianas baseado em Monte Carlo via Cadeias de Markov, que fornece informações da credibilidade do modelo ao final do processo de aprendizado. A avaliação desta nova metodologia mostrou ser equivalentes a algoritmos tradicionais de aprendizagem de Redes Bayesianas, mas com maior observabilidade do modelo obtido e com benefícios no aprendizado com poucos dados. |