Use este identificador para citar ou linkar para este item: http://www.repositorio.ufop.br/jspui/handle/123456789/15780
Título: Controle por aprendizagem por reforço aplicado aos processos : CSTR e Espessador.
Autor(es): Bitarães, Santino Martins
Orientador(es): Euzebio, Thiago Antonio Melo
Silva, Moisés Tavares da
Palavras-chave: Minas e mineração
Inteligência artificial
Controle automático - controle avançado
Aprendizagem por reforço
Reator de Tanque com Agitação Contínua
Data do documento: 2022
Membros da banca: Euzebio, Thiago Antonio Melo
Silva, Moisés Tavares da
Braga, Marcio Feliciano
Cota, Luciano Perdigão
Araújo, José Mário
Referência: BITARÃES, Santino Martins. Controle por aprendizagem por reforço aplicado aos processos: CSTR e Espessador. 2022. 50 f. Dissertação (Mestrado Profissional em Instrumentação, Controle e Automação de Processos de Mineração) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2020.
Resumo: O controle por aprendizagem por reforço busca melhorar seu desempenho pelo aprendizado obtido ao interagir com o processo. As ações de controle deste tipo de controlador são norteadas unicamente por uma função de recompensa. O algoritmo Augmented Random Search (ARS) é uma método de aprendizagem por reforço baseado em busca aleatória simples com melhorias no processamento das recompensas e dos estados. As características apresentadas pela aprendizagem por reforço permitirá sua utilização em processos complexos e não lineares, como o tanque com agitação contínua (CSTR) e o espessador. Esses dois processos são complexos e apresentam comportamentos diferentes nos pontos de operação. Para o problema do CSTR, os estados são as referências do processo (referência atual e uma mudança de referência), as ações são os parâmetros do controlador PI e a recompensa foi definida em função do erro entre a referência e variável do processo (temperatura do reator). No caso do espessador os estados são o erro e a concentração do underflow, a ação é o ajuste direto da vazão de underflow e a função de recompensa foi definida em função do erro e da variação da ação de controle. Para o simulador do CSTR foi utilizado o python e para o espessador, utilizamos o Matlab. A sintonia proposta pelo ARS para o problema do CSTR apresenta uma melhoria de 8,3% (IAE), considerando o mesmo ponto de operação, em comparação com o benchmark. Já o o algoritmo ARS foi 19% (IAE) melhor na tarefa de controlar diretamente o espessador.
Resumo em outra língua: Control by reinforcement learning seeks to improve its performance by learning by interacting with the process. The control actions of this type of controller are guided solely by a reward function. The Augmented Random Search (ARS) algorithm is a reinforcement learning method based on a simple random search with improvements in processing rewards and states. The characteristics of reinforcement learning will allow its use in complex and non-linear processes, such as the continuous agitation tank (CSTR) and the thickener. These two processes are complex and exhibit different behaviors at operating points. For the CSTR problem, the states are the process references (current setpoint and a change of setpoint), the actions are the parameters of the PI controller, and the reward is defined as a function of the error between the reference and the process variable (temperature of the reactor). In the case of the thickener, the states are the error and the underflow concentration, the action is the direct adjustment of the underflow flow, and the reward function is defined as a function of the error and the variation of the control action. For the CSTR simulator, we used python, and for the thickener, we used Matlab. The tuning proposed by the ARS for the CSTR problem presents an improvement of 8.3% (IAE), considering the same operating point, compared to the benchmark. The ARS algorithm was 19% (IAE) better in directly controlling the thickener.
Descrição: Programa de Pós-Graduação em Instrumentação, Controle e Automação de Processos de Mineração. Departamento de Engenharia de Controle e Automação, Escola de Minas, Universidade Federal de Ouro Preto.
URI: http://www.repositorio.ufop.br/jspui/handle/123456789/15780
Licença: Autorização concedida ao Repositório Institucional da UFOP pelo(a) autor(a) em 07/10/2022 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho, desde que sejam citados o autor e o licenciante.
Aparece nas coleções:PROFICAM - Mestrado (Dissertações)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DISSERTAÇÃO_ControleAprendizagemReforço.pdf1,79 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons