REVISITANDO O PROBLEMA DE CLASSIFICAÇÃO DE PADRÕES NA PRESENÇA DE OUTLIERS USANDO TÉCNICAS DE REGRESSÃO ROBUSTA

Detalhes bibliográficos
Ano de defesa: 2013
Autor(a) principal: BARROS, ANA LUIZA BESSA DE PAULA
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: UNIVERSIDADE FEDERAL DO CEARÁ - UFC
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://siduece.uece.br/siduece/trabalhoAcademicoPublico.jsf?id=88335
Resumo: Nesta tese, aborda-se o problema de classificação de dados que estão contaminados com padrões<br/>atípicos. Tais padrões, genericamente chamados de outliers, são onipresentes em conjunto<br/>de dados multivariados reais, porém sua detecção a priori (i.e antes de treinar um classificador)<br/>é uma tarefa de difícil realização. Como conseqüência, uma abordagem reativa, em que se<br/>desconfia da presença de outliers somente após um classificador previamente treinado apresentar<br/>baixo desempenho, é a mais comum. Várias estratégias podem então ser levadas a cabo<br/>a fim de melhorar o desempenho do classificador, dentre elas escolher um classificador mais<br/>poderoso computacionalmente ou promover uma limpeza dos dados, eliminando aqueles padrões<br/>difíceis de categorizar corretamente. Qualquer que seja a estratégia adotada, a presença<br/>de outliers sempre irá requerer maior atenção e cuidado durante o projeto de um classificador<br/>de padrões. Tendo estas dificuldades em mente, nesta tese são revisitados conceitos e técnicas<br/>provenientes da teoria de regressão robusta, em particular aqueles relacionados à estimação<br/>M, adaptando-os ao projeto de classificadores de padrões capazes de lidar automaticamente<br/>com outliers. Esta adaptação leva à proposição de versões robustas de dois classificadores de<br/>padrões amplamente utilizados na literatura, a saber, o classificador linear dos mínimos quadrados<br/>(least squares classifier, LSC) e a máquina de aprendizado extremo (extreme learning<br/>machine, ELM). Através de uma ampla gama de experimentos computacionais, usando dados<br/>sintéticos e reais, mostra-se que as versões robustas dos classificadores supracitados apresentam<br/>desempenho consistentemente superior aos das versões originais.<br/>Palavras-chave: Classificação de padrões, outliers,mínimos quadrados ordinário, regressão<br/>robusta, estimação-M, máquina de aprendizado extremo.