Detalhes bibliográficos
Ano de defesa: |
2022 |
Autor(a) principal: |
Sousa, Giselly Soares De |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Estadual do Ceará
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Link de acesso: |
https://siduece.uece.br/siduece/trabalhoAcademicoPublico.jsf?id=108305
|
Resumo: |
O reconhecimento facial é a biometria mais estudada no últimos anos, com aplicações em diversos campos tais como reconhecimento de padrões, processamento de sinal e visão computacional. Há diversos fatores que dificultam a obtenção de uma acurácia ótima: ruídos, expressões faciais, presença de óculos, barba e a variação de iluminação. A fim de lidar com um dos principais fatores da redução da acurácia, a variação de iluminação, este trabalho realiza um reconhecimento facial utilizando variações de métodos de extração de características associados a classificadores populares nas literaturas de reconhecimento de padrões. A extração de características das faces foram realizadas através dos métodos Análise de Componentes Principais (PCA), Transformada Discreta do Cosseno (DCT), e as variações DCT-mod, DCT-mod-delta e DCT-mod2. Para a classificação, foram utilizados os classificadores Modelo de Misturas Gaussianas (GMM), Naïve Bayes e K-Vizinhos mais Próximos (K-NN). O desempenho dos algoritmos foi analisado utilizando a base de imagem VidTIMIT, que possui imagens contendo expressões e poses, e, para analisar o desempenho dos métodos em imagens com grandes variações de iluminação, foram aplicadas nas mesmas várias iluminações artificiais. Os resultados mostraram que os melhores métodos de extração de características foram o DCT-mod-delta e DCT-mod2 em todos os classificadores, sendo o método DCT-mod-delta o que obteve a melhor acurácia quando associado ao classificador K-NN utilizando a medida de correlação, com 97% em imagens sem nenhuma variação de iluminação e com 92,6% em imagens com variações de iluminação extrema. |