Controle supervisório de microrredes utilizando deep reinforcement learning

Detalhes bibliográficos
Ano de defesa: 2021
Autor(a) principal: Barbalho, Pedro Inácio de Nascimento e
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/
Resumo: As microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente.