Análise discriminante clássica e de núcleo: avaliação e algumas contribuições relativas aos métodos Boosting e Bootstrap

Detalhes bibliográficos
Ano de defesa: 2007
Autor(a) principal: Rodrigo Portela Ferreira, Marcelo
Orientador(a): José Amorim do Amaral, Getúlio
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Pernambuco
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://repositorio.ufpe.br/handle/123456789/6288
Resumo: Desde que tecnologia da informação tornou-se essencial para muitas atividades da vida moderna e grandes conjuntos de dados surgiram junto com ela, mineração de dados tornou-se uma das mais importantes áreas de pesquisa na ciência estatística. Apesar de existirem muitos campos relacionados a mineração de dados, a tarefa de classificação ainda figura como uma das mais comuns na literatura estatística. Esta dissertação faz uma revisão de dois métodos clássicos de classificação, análise discriminante linear e quadrática, e um método não-paramétrico, a análise discriminante de núcleo. Experimentos de simulação e conjuntos de dados reais são utilizados para avaliar e comparar os três métodos de classificação. Também apresenta algumas contribuições relacionadas aos métodos boosting e bootstrap no contexto de classificação. A primeira contribuição trata-se de uma nova formulação para o método boosting em análise discriminante linear. Os resultados numéricos mostram que esta nova formulação tem desempenho similar à formulação usual. Entretanto, a nova formulação do método boosting é conceitualmente mais adequada. Dois métodos bootstrap para problemas de classificação são introduzidos e avaliados. O primeiro método bootstrap é utilizado para obter uma fronteira de classificação. O conceito de fronteira de classificação pode ser entendido como uma região onde é difícil alocar uma observação para uma das populações existentes. O segundo método bootstrap é um intervalo de confiança para a taxa de erro de classificação. Intervalos de confiança podem ser utilizados para comparar dois ou mais métodos de classificação na estrutura de inferência