Detalhes bibliográficos
Ano de defesa: |
2018 |
Autor(a) principal: |
Gonzalez, Rafael Thomazi |
Orientador(a): |
Barone, Dante Augusto Couto |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
eng |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Palavras-chave em Inglês: |
|
Link de acesso: |
http://hdl.handle.net/10183/189125
|
Resumo: |
A análise de séries temporais é amplamente utilizada em areas relacionadas a negócios, economia, finanças, ciências e engenharia. Uma das principais caracteristicas dos dados de séries temporais é que observações passadas podem ser usadas para prever valores futuros. Além disso, esse tipo de dado introduze o problema adicional de se fazer necessário a criação de representações que reflitam mudanças ao longo do tempo. Muitos algoritmos de previsão de séries temporais baseados em aprendizado de máquina e estatística têm sido propostos na literatura. Mais recentemente, tecnincas de Deep Learning vêm sendo aplicadas nesse campo, uma vez que esses tipos de rede neurais podem ser treinadas de forma a representarem diferentes tipos de dados, sejam dados brutos ou transformados. Esta tese tem por objetivo avaliar o desempenho de algoritmos de Aprendizagem Profunda otimizados por um Algoritmo Evolutivo na predição de diferentes séries temporais. Primeiramente, é apresentada uma descrição dos algoritmos de Aprendizado Profundo selecionados, a saber: Autoencoder (SAE), Stacked Denoising Autoencoder (SDAE) e redes Long Short-Term Memory (LSTM). A rede Feedforward Multilayer Perceptron (MLP) é usada freqüentemente em predições de séries temporais e, portanto, é usada como modelo base para comparar os modelos base em Aprendizagem Profunda. Dada a complexidade desses modelos, seus hiperparâmetros são otimizados por um Algoritmo Evolucionário denominado Covariance Matrix Adaptation Evolution Strategy (CMAES) Os pontos fortes e as desvantagens do CMAES são destacados a fim de se explicar por que ele é considerado como estado-da-arte e um dos mais poderosos algoritmos evolutivos para otimização de valor real. Para demonstrar o desempenho da abordagem proposta na previsão de séries temporais, os experimentos são realizados usando três conjuntos de dados diferentes. Dois deles são dados artificiais gerados pelas equações de Mackey-Glass e Lorenz System. O terceiro inclui dados reais de demanda de energia horária. Ao longo da análise dos resultados, verificou-se que alguns modelos, como o LSTM e o MLP, apresentam melhor desempenho em dados que apresentam algum grau de sazonalidade; enquanto os modelos com camadas de pré-processamento (ou seja, SAE e SDAE) têm dificuldades em aprender a estrutura temporal dos dados. Os problemas que envolvem dados de séries temporais se comportam de maneira semelhante a muitos outros problemas de aprendizado de máquina, de modo que não há um algoritmo que seja o melhor para todos os problemas. Portanto, este trabalho corrobora a eficácia da utilização de modelos de Aprendizagem Profunda em problemas de previsão de séries temporais, bem como a eficácia do uso do algoritmo CMAES na otimização de hiperparâmetros. |