Modelo de inteligência artificial pelo método deep learning para predição de tempo de sala operatória

Detalhes bibliográficos
Ano de defesa: 2024
Autor(a) principal: Ribeiro, Victor Sapountzakis
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Dissertação
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Biblioteca Digitais de Teses e Dissertações da USP
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.teses.usp.br/teses/disponiveis/5/5174/tde-03122024-134156/
Resumo: INTRODUÇÃO: A otimização do tempo de permanência do paciente em sala cirúrgica, balanceada com a redução do tempo ocioso da equipe, mantém uma boa gestão do centro cirúrgico e pode resultar na otimização de recursos. O presente estudo visa a gerar um modelo preditor de tempo de sala operatória com o uso de inteligência artificial. A ferramenta criada poderá contribuir para a gestão de escalas, diminuindo o tempo de ociosidade. MÉTODOS: Foi desenvolvido um modelo não paramétrico de deep learning pelo método multilayer perceptron, por meio da análise de variáveis insensíveis com base em seis anos de dados colhidos, os quais não identificam dados do paciente. RESULTADOS: A média ponderada entre o método de predição de tempo de sala atualmente usado e o método do algoritmo de deep learning gerou um algoritmo com precisão de 0,78 pelo teste de concordância de Lin, e a distribuição dos tempos preditos e reais não foi significativamente diferente segundo o teste de Hosmer-Lemeshow, com ² = 12.45 e p = 0,052 (p > 0,05). O modelo usado atualmente apresenta RMSE de 131,03 minutos e MAE de 92,32 minutos; o modelo gerado por este estudo possui RMSE de 107,32 minutos e MAE de 77,93 minutos. CONCLUSÃO: O uso de métodos de inteligência artificial resultou em um aumento na precisão da predição de tempo de sala operatória, com potencial benefício para sua redução. Com o aumento do número e da qualidade dos dados, o modelo pode alcançar desempenho ainda superior ao atual