Detalhes bibliográficos
Ano de defesa: |
2024 |
Autor(a) principal: |
Csillag, Daniel |
Orientador(a): |
Struchiner, Cláudio José,
Goedert, Guilherme Tegoni |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Tese
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
eng |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Palavras-chave em Inglês: |
|
Link de acesso: |
https://hdl.handle.net/10438/36661
|
Resumo: |
As técnicas de aprendizado de máquina (ML) estão ganhando proeminência em domínios diversos. Crucial para aplicações bem-sucedidas e confiáveis desses métodos é a garantia de alguma noção de “corretude” dos modelos aprendidos, preferencialmente na forma de teoremas rigorosos. Esta tese é o resultado de múltiplos trabalhos que expandem a fronteira dessas garantias e dos métodos subjacentes. Inicialmente, focamos na identificação de garantias de aprendizado para modelos de ML que aprendem estruturas causais. Abordamos isso através do formalismo de cotas de generalização, proporcionando uma base teórica sólida para a confiabilidade desses modelos. Em seguida, voltamos nossa atenção para abordagens de calibração pós-hoc, com ênfase nos métodos de conformal prediction. Apresentamos uma extensão de split conformal prediction para o contexto estratégico, onde os dados mudam em resposta ao nosso modelo à medida que os agentes elaboram estratégias em favor de seus interesses. Por fim, demonstramos como essas técnicas podem ser aplicadas para quantificação de incerteza em super-resolução de imagens via modelos de difusão. Esta aplicação ilustra o potencial prático de nossas contribuições teóricas. |