Export Ready — 

Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos

Bibliographic Details
Main Author: Colombo, Gabriel
Publication Date: 2022
Format: Bachelor thesis
Language: por
Source: Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
Download full: http://repositorio.utfpr.edu.br/jspui/handle/1/29123
Summary: Reinforcement learning emerged in the 1980s and is one of three main areas of machine learning, the other two being supervised and unsupervised learning. Reinforcement problems have unique characteristics, such as the exchange of information between the agent and the environment in which it is inserted. In addition, all reinforcement learning problems are based on objectives and make use of rewards as stimulus for learning. Another particularity of reinforcement learning is that it does not need prior information about the environment, as it is possible to collect data from interactions, using trial and error techniques. Although it emerged in the 1980s, reinforcement learning has recently gained popularity with the advancement of neural networks and the emergence of deep neural networks, since the fact that they can find function approximations has made it possible to solve problems with infinite states, which are more similar to problems in the real world. A major ambition of reinforcement learning is to create an algorithm that can be generalized and adapted to various environments. In this sense, this work aims to evaluate the Deep Q-Learning algorithm on 5 continuous state environments and to analyze both its performance and its adaptation capacity for different environments.
id UTFPR-12_14a6fa2d6e76dde8c25d644ff261a35e
oai_identifier_str oai:repositorio.utfpr.edu.br:1/29123
network_acronym_str UTFPR-12
network_name_str Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
repository_id_str
spelling Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuosComparison of performance of the Deep Q-Learning algorithm in simulated environments with continuous statesAprendizado de máquinasAprendizado do computadorInteligência artificialRedes neurais (Computação)Machine learningNeural networks (Computer science)Artificial intelligenceNeural networks (Computer science)CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOReinforcement learning emerged in the 1980s and is one of three main areas of machine learning, the other two being supervised and unsupervised learning. Reinforcement problems have unique characteristics, such as the exchange of information between the agent and the environment in which it is inserted. In addition, all reinforcement learning problems are based on objectives and make use of rewards as stimulus for learning. Another particularity of reinforcement learning is that it does not need prior information about the environment, as it is possible to collect data from interactions, using trial and error techniques. Although it emerged in the 1980s, reinforcement learning has recently gained popularity with the advancement of neural networks and the emergence of deep neural networks, since the fact that they can find function approximations has made it possible to solve problems with infinite states, which are more similar to problems in the real world. A major ambition of reinforcement learning is to create an algorithm that can be generalized and adapted to various environments. In this sense, this work aims to evaluate the Deep Q-Learning algorithm on 5 continuous state environments and to analyze both its performance and its adaptation capacity for different environments.A aprendizagem por reforço surgiu na década de 80 e compõe uma das três grandes áreas de aprendizagem de máquinas, sendo as outras duas a aprendizagem supervisionada e a não supervisionada. Os problemas de reforço possuem características peculiares, como a troca de informação que ocorre entre o agente e o ambiente em que ele está inserido, além disso, todos os problemas de aprendizagem por reforço são focados em objetivos e utilizam recompensas como estímulos para a aprendizagem. Outra particularidade da aprendizagem por reforço é que ela não precisa de informações prévias sobre o ambiente, pois é possível coletar os dados a partir das interações, utilizando técnicas de tentativa e erro. Apesar de ter surgido na década de 80, a aprendizagem por reforço voltou a ganhar popularidade recentemente com o avanço das redes neurais e o surgimento das redes neurais profundas, pois o fato de elas conseguirem encontrar aproximações de funções, tornou possível solucionar problemas com infinitos estados, que são mais semelhantes aos problemas existentes no mundo real. Uma grande ambição da aprendizagem por reforço é criar um algoritmo que possa ser generalizado e consiga se adaptar a diversos ambientes. Nesse sentido, esse trabalho tem o objetivo de avaliar o algoritmo Deep Q-Learning em 5 ambientes com estados contínuos e analisar tanto o seu desempenho quanto sua capacidade de adaptação para diferentes ambientes.Universidade Tecnológica Federal do ParanáPato BrancoBrasilDepartamento Acadêmico de InformáticaEngenharia de ComputaçãoUTFPRCasanova, DalcimarCasanova, DalcimarFavarim, FábioBarbosa, Marco Antonio de CastroColombo, Gabriel2022-07-28T13:09:49Z2022-07-28T13:09:49Z2022-06-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfCOLOMBO, Gabriel. Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos. 2022. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2022.http://repositorio.utfpr.edu.br/jspui/handle/1/29123porhttps://creativecommons.org/licenses/by-sa/4.0/info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))instname:Universidade Tecnológica Federal do Paraná (UTFPR)instacron:UTFPR2022-07-29T06:06:18Zoai:repositorio.utfpr.edu.br:1/29123Repositório InstitucionalPUBhttp://repositorio.utfpr.edu.br:8080/oai/requestriut@utfpr.edu.bropendoar:2022-07-29T06:06:18Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT)) - Universidade Tecnológica Federal do Paraná (UTFPR)false
dc.title.none.fl_str_mv Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
Comparison of performance of the Deep Q-Learning algorithm in simulated environments with continuous states
title Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
spellingShingle Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
Colombo, Gabriel
Aprendizado de máquinas
Aprendizado do computador
Inteligência artificial
Redes neurais (Computação)
Machine learning
Neural networks (Computer science)
Artificial intelligence
Neural networks (Computer science)
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
title_short Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
title_full Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
title_fullStr Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
title_full_unstemmed Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
title_sort Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
author Colombo, Gabriel
author_facet Colombo, Gabriel
author_role author
dc.contributor.none.fl_str_mv Casanova, Dalcimar
Casanova, Dalcimar
Favarim, Fábio
Barbosa, Marco Antonio de Castro
dc.contributor.author.fl_str_mv Colombo, Gabriel
dc.subject.por.fl_str_mv Aprendizado de máquinas
Aprendizado do computador
Inteligência artificial
Redes neurais (Computação)
Machine learning
Neural networks (Computer science)
Artificial intelligence
Neural networks (Computer science)
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
topic Aprendizado de máquinas
Aprendizado do computador
Inteligência artificial
Redes neurais (Computação)
Machine learning
Neural networks (Computer science)
Artificial intelligence
Neural networks (Computer science)
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
description Reinforcement learning emerged in the 1980s and is one of three main areas of machine learning, the other two being supervised and unsupervised learning. Reinforcement problems have unique characteristics, such as the exchange of information between the agent and the environment in which it is inserted. In addition, all reinforcement learning problems are based on objectives and make use of rewards as stimulus for learning. Another particularity of reinforcement learning is that it does not need prior information about the environment, as it is possible to collect data from interactions, using trial and error techniques. Although it emerged in the 1980s, reinforcement learning has recently gained popularity with the advancement of neural networks and the emergence of deep neural networks, since the fact that they can find function approximations has made it possible to solve problems with infinite states, which are more similar to problems in the real world. A major ambition of reinforcement learning is to create an algorithm that can be generalized and adapted to various environments. In this sense, this work aims to evaluate the Deep Q-Learning algorithm on 5 continuous state environments and to analyze both its performance and its adaptation capacity for different environments.
publishDate 2022
dc.date.none.fl_str_mv 2022-07-28T13:09:49Z
2022-07-28T13:09:49Z
2022-06-24
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv COLOMBO, Gabriel. Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos. 2022. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2022.
http://repositorio.utfpr.edu.br/jspui/handle/1/29123
identifier_str_mv COLOMBO, Gabriel. Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos. 2022. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2022.
url http://repositorio.utfpr.edu.br/jspui/handle/1/29123
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv https://creativecommons.org/licenses/by-sa/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-sa/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Tecnológica Federal do Paraná
Pato Branco
Brasil
Departamento Acadêmico de Informática
Engenharia de Computação
UTFPR
publisher.none.fl_str_mv Universidade Tecnológica Federal do Paraná
Pato Branco
Brasil
Departamento Acadêmico de Informática
Engenharia de Computação
UTFPR
dc.source.none.fl_str_mv reponame:Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
instname:Universidade Tecnológica Federal do Paraná (UTFPR)
instacron:UTFPR
instname_str Universidade Tecnológica Federal do Paraná (UTFPR)
instacron_str UTFPR
institution UTFPR
reponame_str Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
collection Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
repository.name.fl_str_mv Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT)) - Universidade Tecnológica Federal do Paraná (UTFPR)
repository.mail.fl_str_mv riut@utfpr.edu.br
_version_ 1834836264648441856