Uma análise comparativa do desempenho dos métodos Kernel Smoother e Monte Carlo aplicados a problemas de confiabilidade estrutural

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Silva, Clayton Felicio da lattes
Orientador(a): Barbosa, Flávio de Souza lattes
Banca de defesa: Ainsworth Junior, George Oliveira lattes, Torii, André Jacomel lattes
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Universidade Federal de Juiz de Fora (UFJF)
Programa de Pós-Graduação: Programa de Pós-graduação em Engenharia Civil (PEC)
Departamento: Faculdade de Engenharia
País: Brasil
Palavras-chave em Português:
Área do conhecimento CNPq:
Link de acesso: https://doi.org/10.34019/ufjf/di/2022/00193
https://repositorio.ufjf.br/jspui/handle/ufjf/14519
Resumo: Um dos grandes problemas que envolvem o dimensionamento de estruturas diz respeito às incertezas associadas às variáveis aleatórias (VA) implicadas no projeto estrutural. Ainda com considerações assertivas e rigoroso controle de qualidade, as estruturas ser expostas a incertezas oriundas do carregamento e/ou outros fenômenos não previstos. Neste contexto, a confiabilidade estrutural é uma importante ferramenta, pois permite mensurar a segurança através de indicadores como a probabilidade de falha (). Dentre as metodologias da confiabilidade estrutural, destacam-se métodos de transformação, como o First Order Reliability Method (FORM), e os métodos baseados em simulações, como Monte Carlo (MC), que estima a através da simulação das VA envolvidas. Alternativamente, a meta-modelagem, que descreve um modelo complexo por uma função analítica, vem evoluindo neste campo do conhecimento. O Kernel Smoother (KS) se mostra um meta-modelo pouco explorado e com potencial para aplicação em análise de estruturas. O presente trabalho visa estabelecer uma comparação entre diferentes métodos, (FORM, MC e KS) avaliando a precisão e os tempos computacionais desses métodos como indicadores de desempenho. Além do MC com contagem simples de cenários, foram empregadas duas técnicas de redução de variância, a saber: Importance Sampling (IS) e Hipercubo Latino (LHS), como uma alternativa para aumentar a eficiência do MC. Com a análise proposta, o trabalho conclui que o MC foi o método que demandou menor tempo mas se mostrou ineficaz em problemas com de ordem de grandeza relativamente baixa. Conclui-se ainda, que o IS e o LHS se mostraram mais precisos ao aproximar pequenas com amostras menores. Esses dois foram, também, os métodos que demandaram os maiores tempos computacionais.