Detalhes bibliográficos
Ano de defesa: |
2020 |
Autor(a) principal: |
Manasrarla, Alberto
 |
Orientador(a): |
Silva, Leandro Augusto da
 |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Presbiteriana Mackenzie
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Área do conhecimento CNPq: |
|
Link de acesso: |
http://dspace.mackenzie.br/handle/10899/26584
|
Resumo: |
Atualmente,dados gerados em grande volume,diferentes contextos de aplicação e formato têm impactado significativamente nos diferentes algoritmos de aprendizagem de máquina, em especial os de modelagem preditiva. Sistemas que envolvem dados com essas características não pode marcar com os requisitos de tempo,armazenamento e processamento em tempo real. Sob essas condições, classificar, compreender ou compactar os dados disponíveis podem se tornar uma tarefa custosa. O problema se agrava especialmente no uso de algoritmos de aprendizado baseados em distâncias, como a regra do vizinho mais próximo ou NN (do inglês, NearestNeighbor). O algoritmo básico do NN em uma tarefa de classificação de dados consiste em medir a distância entre uma instância em análise e todas as instâncias de dados disponíveis. Significa dizer que as instâncias do conjunto de dados devem sempre permanecer armazenadas para análises futuras, mesmo aquelas que podem conter ruídos ou não ser representativas para uma análise. Diante disso, a seleção de protótipos se apresenta como uma proposta para a redução de dados e, consequentemente, minimizar os problemas de complexidade computacional, armazenamento e ruídos em conjuntos de dados. A seleção de protótipos visa encontrar um conjunto de dados representativo com uma dimensão menor em comparação ao original, eventualmente pode ser usada para a geração de dados em situações de classes desbalanceadas. Entretanto,a maioria desses métodos,por não ter um controle de geração de protótipos,executa um processo exaustivo para encontrar o conjunto de dados reduzido. A falta de controle na geração de protótipos pode produzir um tamanho não ideal do conjunto de dados reduzido. Diante desse contexto, este trabalho tem como proposta a apresentação de um método de autogeração de protótipos,no qual faz uso de ideias provenientes da teoria da informação,especificamente o conceito de entropia da informação,para determinar o número ideal de protótipos. Na tarefa de classificação de dados com o algoritmo kNN (do inglês, k-Nearest Neighbors), o método proposto possibilita acelerar o tempo de classificação sem diminuir significativamente a qualidade da classificação. Em um estudo comparativo com outra técnica de autogeração de protótipos da literatura, SSGA (do inglês, Steady-StateGeneticAlgorithm), sob análises quantitativas e qualitativas, com diferentes conjuntos de dados (públicos e artificiais), os resultados para o método proposto são superiores,em média,85,71% para o tempo de classificação, com uma taxa média de redução de dados em 77%, e um aumento da eficiência da precisão em 3% do classificador kNN. |