Towards Machine Learning with guarantees

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Csillag, Daniel
Orientador(a): Struchiner, Cláudio José, Goedert, Guilherme Tegoni
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Palavras-chave em Inglês:
Link de acesso: https://hdl.handle.net/10438/36661
Resumo: As técnicas de aprendizado de máquina (ML) estão ganhando proeminência em domínios diversos. Crucial para aplicações bem-sucedidas e confiáveis desses métodos é a garantia de alguma noção de “corretude” dos modelos aprendidos, preferencialmente na forma de teoremas rigorosos. Esta tese é o resultado de múltiplos trabalhos que expandem a fronteira dessas garantias e dos métodos subjacentes. Inicialmente, focamos na identificação de garantias de aprendizado para modelos de ML que aprendem estruturas causais. Abordamos isso através do formalismo de cotas de generalização, proporcionando uma base teórica sólida para a confiabilidade desses modelos. Em seguida, voltamos nossa atenção para abordagens de calibração pós-hoc, com ênfase nos métodos de conformal prediction. Apresentamos uma extensão de split conformal prediction para o contexto estratégico, onde os dados mudam em resposta ao nosso modelo à medida que os agentes elaboram estratégias em favor de seus interesses. Por fim, demonstramos como essas técnicas podem ser aplicadas para quantificação de incerteza em super-resolução de imagens via modelos de difusão. Esta aplicação ilustra o potencial prático de nossas contribuições teóricas.