Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.
| Autor(a) principal: | |
|---|---|
| Data de Publicação: | 2023 |
| Tipo de documento: | Tese |
| Idioma: | por |
| Título da fonte: | Repositório Institucional da UCB |
| Texto Completo: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661 |
Resumo: | O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta. |
| id |
UCB-2_08ab5a642ebf9d0f9a7426a76c00dd11 |
|---|---|
| oai_identifier_str |
oai:localhost:riufcg/32661 |
| network_acronym_str |
UCB-2 |
| network_name_str |
Repositório Institucional da UCB |
| repository_id_str |
|
| spelling |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning.Data-driven control system for distillation columns using deep reinforcement learning.Controle baseado em dadosAspen Plus DynamicsDeep Q-NetworkQ-learningAlgoritmo de treinamento genéricoData-driven controlAspen Plus DynamicsDeep Q-NetworkQlearninggeneric training algorithmEngenharia QuímicaO controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta.Precise control of composition in distillation columns is essential to ensure product quality and process performance. However, PID-type feedback controllers, commonly used in these processes, may have limitations depending on the control loop used. In this regard, data-based controls using reinforcement learning (RL) techniques have become an attractive solution due to the algorithm's adaptability to various control conditions. Recent research indicates a focus on the development of studies aimed at the performance of RL algorithms, often overlooking the robustness in environmental modeling. In this work, the development of an integrated dynamic training algorithm using Python and Aspen Plus Dynamics for evaluating different RL models was proposed. The adoption of Aspen Plus Dynamics for training and validation ensures the complexity, non-linearity, and transient nature of the distillation process. To evaluate the algorithm, the methodologies of Q-Learning and Deep Q-Network (DQN), coupled with a PID controller, were applied. The first stage of the work involved evaluating Q-Learning, exploring two strategies: a fixed control action rate of 0.5% and another with a flexible action rate between 0.1% and 5%. In the second stage, the proposal was to replace Q-Learning with DQN while retaining the best control action rate strategy. Through COM-type communication, it was possible to track the observable variables in the Aspen Plus Dynamics software and make changes to the dynamic model from Python throughout the simulation. The results confirm the limitations of the inferential control loop in maintaining the isobutane composition at the base of the column during disturbances in the propane composition in the feed. The strategy with QLearning and a variable action rate showed approximately twice the accuracy compared to the fixed rate, expanding the regions of correctness. On the other hand, the use of DQN control allowed maintaining the composition within specification in 96% of the evaluated test scenarios, with a 52.9% lower IAE compared to Q-Learning with a variable action rate. In this sense, the DQN approach has proven capable of handling a high-dimensional and nonlinear process more robustly.CapesUniversidade Federal de Campina GrandeBrasilCentro de Ciências e Tecnologia - CCTPÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICAUFCGVASCONCELOS, Luís Gonzaga Sales.VASCONCELOS, L. G. S.http://lattes.cnpq.br/9456860386065509BRITO , Romildo Pereira.BRITO, Karoline Dantas.MORAIS JÚNIOR, Arioston Araújo de Morais.NEVES, Thiago Gonçalves das.LIMA JÚNIOR, Gladson Euler.2023-09-252023-11-06T12:22:06Z2023-11-062023-11-06T12:22:06Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesishttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023.porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UCBinstname:Universidade Católica de Brasília (UCB)instacron:UCB2023-11-06T12:22:06Zoai:localhost:riufcg/32661Repositório InstitucionalPRIhttps://repositorio.ucb.br/oai/requestsara.ribeiro@ucb.bropendoar:2023-11-06T12:22:06Repositório Institucional da UCB - Universidade Católica de Brasília (UCB)false |
| dc.title.none.fl_str_mv |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. Data-driven control system for distillation columns using deep reinforcement learning. |
| title |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| spellingShingle |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. LIMA JÚNIOR, Gladson Euler. Controle baseado em dados Aspen Plus Dynamics Deep Q-Network Q-learning Algoritmo de treinamento genérico Data-driven control Aspen Plus Dynamics Deep Q-Network Qlearning generic training algorithm Engenharia Química |
| title_short |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| title_full |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| title_fullStr |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| title_full_unstemmed |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| title_sort |
Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. |
| author |
LIMA JÚNIOR, Gladson Euler. |
| author_facet |
LIMA JÚNIOR, Gladson Euler. |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
VASCONCELOS, Luís Gonzaga Sales. VASCONCELOS, L. G. S. http://lattes.cnpq.br/9456860386065509 BRITO , Romildo Pereira. BRITO, Karoline Dantas. MORAIS JÚNIOR, Arioston Araújo de Morais. NEVES, Thiago Gonçalves das. |
| dc.contributor.author.fl_str_mv |
LIMA JÚNIOR, Gladson Euler. |
| dc.subject.por.fl_str_mv |
Controle baseado em dados Aspen Plus Dynamics Deep Q-Network Q-learning Algoritmo de treinamento genérico Data-driven control Aspen Plus Dynamics Deep Q-Network Qlearning generic training algorithm Engenharia Química |
| topic |
Controle baseado em dados Aspen Plus Dynamics Deep Q-Network Q-learning Algoritmo de treinamento genérico Data-driven control Aspen Plus Dynamics Deep Q-Network Qlearning generic training algorithm Engenharia Química |
| description |
O controle preciso da composição em colunas de destilação é essencial para garantir a qualidade do produto e o desempenho do processo. Contudo, os controladores feedback do tipo PID, que são comumente utilizados nestes processos, podem apresentar restrições, dependendo da malha de controle utilizada. Neste sentido, controles baseados em dados utilizando técnicas de reinforcement learning (RL) tem sido uma solução atrativa dada a capacidade de adaptação do algoritmo à diferentes condições de controle. Trabalhos recentes indicam um foco no desenvolvimento de estudos voltados para a performance dos algoritmos de RL negligenciando a robustez na modelagem do ambiente. Neste trabalho foi proposto o desenvolvimento de um algoritmo de treinamento dinâmico integrado utilizando Python e Aspen Plus Dynamics para avaliação de diferentes modelos de RL. A adoção do Aspen Plus Dynamics para treinamento e validação assegurou a complexidade, não-linearidade e aspecto transiente do processo de destilação. Para avaliação do algoritmo foram aplicadas as metodologias do Q-Learning e Deep Q-Network (DQN), acopladas a um controlador PID. A primeira etapa do trabalho consistiu na avaliação do Q-Learning, explorando duas estratégias: uma taxa de atuação de controle fixa de 0,5% e outra com taxa de atuação flexível entre 0,1% e 5%. Na segunda etapa, propôs-se substituir o Q-Learning pelo DQN, mantendo a melhor estratégia da taxa de manipulação. A partir da comunicação do tipo COM foi possível rastrear as variáveis observáveis no software Aspen Plus Dynamics e realizar alterações no modelo dinâmico a partir do Python ao longo de toda a simulação. Os resultados confirmam a limitação da malha de controle inferencial na manutenção da composição de isobutano na base da coluna para distúrbios na composição de propano na alimentação. A estratégia com Q-Learning e taxa de atuação variável apresentou aproximadamente o dobro de assertividade em relação à taxa fixa, ampliando as regiões de acerto. Por outro lado, a utilização do controle DQN permitiu manter a composição dentro da especificação em 96% dos cenários de teste avaliados, com um IAE 52,9 % menor em comparação com o Q-Learning com taxa de atuação variável. Neste sentido, a abordagem DQN mostrou-se capaz de lidar com um processo de alta dimensão e não linear de forma mais robusta. |
| publishDate |
2023 |
| dc.date.none.fl_str_mv |
2023-09-25 2023-11-06T12:22:06Z 2023-11-06 2023-11-06T12:22:06Z |
| dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.fl_str_mv |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661 LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023. |
| url |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/32661 |
| identifier_str_mv |
LIMA JÚNIOR, Gladson Euler. Sistema de controle data driven para colunas de destilação utilizando deep reinforcement learning. 2023. 111 f. Tese (Doutorado em Engenharia Química) – Programa de Pós-Graduação em Engenharia Química, Centro de Ciências e Tecnologia, Universidade Federal de Campina Grande, Paraíba, Brasil, 2023. |
| dc.language.iso.fl_str_mv |
por |
| language |
por |
| dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
| eu_rights_str_mv |
openAccess |
| dc.publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Ciências e Tecnologia - CCT PÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICA UFCG |
| publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Ciências e Tecnologia - CCT PÓS-GRADUAÇÃO EM ENGENHARIA QUÍMICA UFCG |
| dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UCB instname:Universidade Católica de Brasília (UCB) instacron:UCB |
| instname_str |
Universidade Católica de Brasília (UCB) |
| instacron_str |
UCB |
| institution |
UCB |
| reponame_str |
Repositório Institucional da UCB |
| collection |
Repositório Institucional da UCB |
| repository.name.fl_str_mv |
Repositório Institucional da UCB - Universidade Católica de Brasília (UCB) |
| repository.mail.fl_str_mv |
sara.ribeiro@ucb.br |
| _version_ |
1834013083695054848 |