Avaliação de estratégias para reconciliação de dados e detecção de erros grosseiros

Detalhes bibliográficos
Ano de defesa: 2009
Autor(a) principal: Farias, Andrea Cabral
Orientador(a): Secchi, Argimiro Resende
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: http://hdl.handle.net/10183/23935
Resumo: O sistema de reconciliação de dados trata de um problema advindo da evolução das técnicas de medição, aquisição e armazenamento de dados. Este tem o papel de garantir a consistência destes dados, utilizando a redundância das variáveis medidas e um modelo estatístico da medição para aumentar a precisão dos dados. O procedimento completo tem por objetivo que as equações de conservação sejam satisfeitas, tratando dos erros aleatórios inerentes ao processo de medição e que eventuais erros grosseiros sejam detectados e corrigidos. Estas duas últimas atribuições referem-se aos dois problemas tratados neste trabalho: avaliação de técnicas de reconciliação de dados e para a detecção de erros grosseiros. O objetivo deste trabalho é comparar diferentes técnicas por meio de um estudo completo de reconciliação de dados e detecção de erros grosseiros. Este foi baseado em simulações determinísticas e simulações Monte Carlo para verificar o desempenho das estratégias frente aos parâmetros que influenciam cada etapa do procedimento. Em reconciliação de dados foi avaliada a influência da topologia e do pré-tratamento de dados na qualidade final da estimação. Já para etapa de detecção de erros grosseiros foram avaliadas sete estratégias diferentes, realizando uma comparação entre as mesmas com base em um estudo combinatorial completo. Avaliou-se a influência da topologia e foram levantadas as curvas de poder de detecção. Com base nestes resultados escolheu-se um critério para que os algoritmos fossem sintonizados de maneira que a comparação entre eles fosse justa. Após a sintonia avaliou-se a utilização do pré-tratamento de dados. Além das estratégias de detecção tradicionais utilizaram-se também técnicas de reconciliação robusta. O desempenho destas foi comparado com os resultados obtidos nas etapas anteriores. Como conseqüência deste estudo completo, foi proposta uma nova estratégia de detecção de erros grosseiros, baseada em estatística robusta. O seu desenvolvimento foi demonstrado e a validação foi realizada por comparação com os resultados obtidos neste trabalho e com um caso reportado na literatura.