Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.

Detalhes bibliográficos
Autor(a) principal: LIMA JÚNIOR, Gladson Euler.
Data de Publicação: 2023
Tipo de documento: Tese
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFCG
Texto Completo: https://dspace.sti.ufcg.edu.br/handle/riufcg/32661
Resumo: O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta.
id UFCG_7fd44e8abe873470bb8b5334b3ba476c
oai_identifier_str oai:dspace.sti.ufcg.edu.br:riufcg/32661
network_acronym_str UFCG
network_name_str Biblioteca Digital de Teses e Dissertações da UFCG
repository_id_str 4851
spelling Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.Data-driven control system for distillation columns using deep reinforcement learning.Controle baseado em dadosAspen Plus DynamicsDeep Q-NetworkQ-learningAlgoritmo de treinamento genéricoData-driven controlAspen Plus DynamicsDeep Q-NetworkQlearninggeneric training algorithmEngenharia QuímicaO controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta.Precise control of composition in distillation columns is essential to ensure product quality and process performance. However, PID-type feedback controllers, commonly used in these processes, may have limitations depending on the control loop used. In this regard, data-based controls using reinforcement learning (RL) techniques have become an attractive solution due to the algorithm's adaptability to various control conditions. Recent research indicates a focus on the development of studies aimed at the performance of RL algorithms, often overlooking the robustness in environmental modeling. In this work, the development of an integrated dynamic training algorithm using Python and Aspen Plus Dynamics for evaluating different RL models was proposed. The adoption of Aspen Plus Dynamics for training and validation ensures the complexity, non-linearity, and transient nature of the distillation process. To evaluate the algorithm, the methodologies of Q-Learning and Deep Q-Network (DQN), coupled with a PID controller, were applied. The first stage of the work involved evaluating Q-Learning, exploring two strategies: a fixed control action rate of 0.5% and another with a flexible action rate between 0.1% and 5%. In the second stage, the proposal was to replace Q-Learning with DQN while retaining the best control action rate strategy. Through COM-type communication, it was possible to track the observable variables in the Aspen Plus Dynamics software and make changes to the dynamic model from Python throughout the simulation. The results confirm the limitations of the inferential control loop in maintaining the isobutane composition at the base of the column during disturbances in the propane composition in the feed. The strategy with QLearning and a variable action rate showed approximately twice the accuracy compared to the fixed rate, expanding the regions of correctness. On the other hand, the use of DQN control allowed maintaining the composition within specification in 96% of the evaluated test scenarios, with a 52.9% lower IAE compared to Q-Learning with a variable action rate. In this sense, the DQN approach has proven capable of handling a high-dimensional and nonlinear process more robustly.CapesUniversidade Federal de Campina GrandeBrasilCentro de Ciências e Tecnologia - CCTPÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICAUFCGVASCONCELOS, Luís Gonzaga Sales.VASCONCELOS, L. G. S.http://lattes.cnpq.br/9456860386065509BRITO , Romildo Pereira.BRITO, Karoline Dantas.MORAIS JÚNIOR, Arioston Araújo de Morais.NEVES, Thiago Gonçalves das.LIMA JÚNIOR, Gladson Euler.2023-09-252023-11-06T12:22:06Z2023-11-062023-11-06T12:22:06Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesishttps://dspace.sti.ufcg.edu.br/handle/riufcg/32661LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023.porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFCGinstname:Universidade Federal de Campina Grande (UFCG)instacron:UFCG2025-11-18T06:27:16Zoai:dspace.sti.ufcg.edu.br:riufcg/32661Biblioteca Digital de Teses e Dissertaçõeshttp://bdtd.ufcg.edu.br/PUBhttp://dspace.sti.ufcg.edu.br:8080/oai/requestbdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.bropendoar:48512025-11-18T06:27:16Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)false
dc.title.none.fl_str_mv Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
Data-driven control system for distillation columns using deep reinforcement learning.
title Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
spellingShingle Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
LIMA JÚNIOR, Gladson Euler.
Controle baseado em dados
Aspen Plus Dynamics
Deep Q-Network
Q-learning
Algoritmo de treinamento genérico
Data-driven control
Aspen Plus Dynamics
Deep Q-Network
Qlearning
generic training algorithm
Engenharia Química
title_short Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
title_full Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
title_fullStr Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
title_full_unstemmed Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
title_sort Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
author LIMA JÚNIOR, Gladson Euler.
author_facet LIMA JÚNIOR, Gladson Euler.
author_role author
dc.contributor.none.fl_str_mv VASCONCELOS, Luís Gonzaga Sales.
VASCONCELOS, L. G. S.
http://lattes.cnpq.br/9456860386065509
BRITO , Romildo Pereira.
BRITO, Karoline Dantas.
MORAIS JÚNIOR, Arioston Araújo de Morais.
NEVES, Thiago Gonçalves das.
dc.contributor.author.fl_str_mv LIMA JÚNIOR, Gladson Euler.
dc.subject.por.fl_str_mv Controle baseado em dados
Aspen Plus Dynamics
Deep Q-Network
Q-learning
Algoritmo de treinamento genérico
Data-driven control
Aspen Plus Dynamics
Deep Q-Network
Qlearning
generic training algorithm
Engenharia Química
topic Controle baseado em dados
Aspen Plus Dynamics
Deep Q-Network
Q-learning
Algoritmo de treinamento genérico
Data-driven control
Aspen Plus Dynamics
Deep Q-Network
Qlearning
generic training algorithm
Engenharia Química
description O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta.
publishDate 2023
dc.date.none.fl_str_mv 2023-09-25
2023-11-06T12:22:06Z
2023-11-06
2023-11-06T12:22:06Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://dspace.sti.ufcg.edu.br/handle/riufcg/32661
LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023.
url https://dspace.sti.ufcg.edu.br/handle/riufcg/32661
identifier_str_mv LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023.
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Campina Grande
Brasil
Centro de Ciências e Tecnologia - CCT
PÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICA
UFCG
publisher.none.fl_str_mv Universidade Federal de Campina Grande
Brasil
Centro de Ciências e Tecnologia - CCT
PÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICA
UFCG
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFCG
instname:Universidade Federal de Campina Grande (UFCG)
instacron:UFCG
instname_str Universidade Federal de Campina Grande (UFCG)
instacron_str UFCG
institution UFCG
reponame_str Biblioteca Digital de Teses e Dissertações da UFCG
collection Biblioteca Digital de Teses e Dissertações da UFCG
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)
repository.mail.fl_str_mv bdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.br
_version_ 1850321166160363520