Exportação concluída — 

Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina

Detalhes bibliográficos
Autor(a) principal: Lima, Luiz Ricardo Brumati de
Data de Publicação: 2025
Tipo de documento: Trabalho de conclusão de curso
Idioma: por
Título da fonte: Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
Texto Completo: http://repositorio.utfpr.edu.br/jspui/handle/1/36065
Resumo: In cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.
id UTFPR-12_47d52bf7b4bd8a9b47fb0229c10d7d56
oai_identifier_str oai:repositorio.utfpr.edu.br:1/36065
network_acronym_str UTFPR-12
network_name_str Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
repository_id_str
spelling Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquinaDevelopment of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learningInteração humano-máquinaAprendizado do computadorVisão por computadorHuman-computer interationMachine learningComputer visionCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOIn cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.Em cenários em que transtornos de fala decorrentes de limitações motoras representam barreiras significativas para a comunicação verbal, a Terapia de Motricidade Orofacial oferece suporte para ajudar indivíduos a aprimorar suas habilidades de comunicação. No entanto, muitas vezes o paciente enfrenta dificuldades, ou, mesmo, desmotivação ao tentar praticar os exercícios terapêuticos fora do ambiente clínico, sem a assistência direta e contínua do fonoaudiólogo. Diante desse cenário, este trabalho propôs uma ferramenta para auxiliar o acompanhamento terapêutico ao permitir que o paciente grave a execução dos exercícios e receba uma avaliação automatizada que varia em uma escala de três níveis, de acordo com a qualidade da execução. Para atingir esse objetivo, foi utilizado o modelo MediaPipe FaceMesh para extrair pontos-chave (landmarks) da região facial, de modo que estes foram pré-processados e utilizados como entrada de uma Rede Neural do tipo Long Short-Term Memory (LSTM). Para o desenvolvimentodo modelo, foram utilizadas técnicas de otimização de hiperparâmetros e avaliação por meio de K-Fold Cross-Validation. Como método de verificação da replicabilidade dessa abordagem, três modelos foram gerados, para o movimento de beijo, abertura bucal e estiramento labial, de modo que os resultados comprovaram que é possível realizar a avaliação dos movimentos. A fim de viabilizar o uso dos modelos gerados, foi desenvolvida uma aplicação móvel com enfoque em usabilidade e com o objetivo de proporcionar uma experiência intuitiva ao usuário, permitindo o acompanhamento de sua consistência ao longo da realização das atividades. O trabalho atingiu o seu objetivo de desenvolver uma solução que pode ser utilizada como complemento à terapia fonoaudiológica, além de sugerir possibilidades de pesquisas futuras dentro desse contexto.Universidade Tecnológica Federal do ParanáPato BrancoBrasilDepartamento Acadêmico de InformáticaEngenharia de ComputaçãoUTFPRAscari, Soelaine RodriguesCasanova, DalcimarPola, Ives Renê VenturiniAscari, Rúbia Eliza de Oliveira SchultzAscari, Soelaine RodriguesCasanova, DalcimarLima, Luiz Ricardo Brumati de2025-03-12T16:33:11Z2025-03-12T16:33:11Z2025-02-14info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfLIMA, Luiz Ricardo Brumati de. Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.http://repositorio.utfpr.edu.br/jspui/handle/1/36065porhttp://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))instname:Universidade Tecnológica Federal do Paraná (UTFPR)instacron:UTFPR2025-03-13T06:09:57Zoai:repositorio.utfpr.edu.br:1/36065Repositório InstitucionalPUBhttp://repositorio.utfpr.edu.br:8080/oai/requestriut@utfpr.edu.br || sibi@utfpr.edu.bropendoar:2025-03-13T06:09:57Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT)) - Universidade Tecnológica Federal do Paraná (UTFPR)false
dc.title.none.fl_str_mv Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
Development of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learning
title Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
spellingShingle Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
Lima, Luiz Ricardo Brumati de
Interação humano-máquina
Aprendizado do computador
Visão por computador
Human-computer interation
Machine learning
Computer vision
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
title_short Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
title_full Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
title_fullStr Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
title_full_unstemmed Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
title_sort Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
author Lima, Luiz Ricardo Brumati de
author_facet Lima, Luiz Ricardo Brumati de
author_role author
dc.contributor.none.fl_str_mv Ascari, Soelaine Rodrigues
Casanova, Dalcimar
Pola, Ives Renê Venturini
Ascari, Rúbia Eliza de Oliveira Schultz
Ascari, Soelaine Rodrigues
Casanova, Dalcimar
dc.contributor.author.fl_str_mv Lima, Luiz Ricardo Brumati de
dc.subject.por.fl_str_mv Interação humano-máquina
Aprendizado do computador
Visão por computador
Human-computer interation
Machine learning
Computer vision
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
topic Interação humano-máquina
Aprendizado do computador
Visão por computador
Human-computer interation
Machine learning
Computer vision
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
description In cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.
publishDate 2025
dc.date.none.fl_str_mv 2025-03-12T16:33:11Z
2025-03-12T16:33:11Z
2025-02-14
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv LIMA, Luiz Ricardo Brumati de. Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.
http://repositorio.utfpr.edu.br/jspui/handle/1/36065
identifier_str_mv LIMA, Luiz Ricardo Brumati de. Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.
url http://repositorio.utfpr.edu.br/jspui/handle/1/36065
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Tecnológica Federal do Paraná
Pato Branco
Brasil
Departamento Acadêmico de Informática
Engenharia de Computação
UTFPR
publisher.none.fl_str_mv Universidade Tecnológica Federal do Paraná
Pato Branco
Brasil
Departamento Acadêmico de Informática
Engenharia de Computação
UTFPR
dc.source.none.fl_str_mv reponame:Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
instname:Universidade Tecnológica Federal do Paraná (UTFPR)
instacron:UTFPR
instname_str Universidade Tecnológica Federal do Paraná (UTFPR)
instacron_str UTFPR
institution UTFPR
reponame_str Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
collection Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT))
repository.name.fl_str_mv Repositório Institucional da UTFPR (da Universidade Tecnológica Federal do Paraná (RIUT)) - Universidade Tecnológica Federal do Paraná (UTFPR)
repository.mail.fl_str_mv riut@utfpr.edu.br || sibi@utfpr.edu.br
_version_ 1850497845632696320