Contramedidas para evitar a falsificação do usuário no acesso a sistemas biométricos via imagens e vídeos

Detalhes bibliográficos
Ano de defesa: 2018
Autor(a) principal: Schardosim, Lucas Royes
Orientador(a): Scharcanski, Jacob
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: por
Instituição de defesa: Não Informado pela instituição
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Palavras-chave em Inglês:
Link de acesso: http://hdl.handle.net/10183/189920
Resumo: A autenticação de usuário é um passo importante para proteger as informações e neste campo a biometria da face é vantajosa. A biometria do rosto é natural, fácil de usar e menos invasiva. Esta tese complementa a biometria facial e visa desenvolver métodos de contramedidas capaz de detectar tentativas de acesso por usuário não autorizado fraudando a identidade de um usuário autorizado. Apesar do grande sucesso alcançado em biometria da face nas últimas décadas, pouca atenção tem sido dada ao problema crítico de ataque de apresentação, spoofing attack. Somente nos últimos anos que gradualmente os sistemas de reconhecimento facial estão cientes da vulnerabilidade dos ataques de apresentação. Fraudadores não autorizados podem tentar falsificar os sistemas de reconhecimento facial exibindo cópias falsificadas do rosto de um cliente autorizado, tais como fotos ou vídeos. Embora simples, estes ataques são geralmente muito bem sucedidos. Nesta tese foram desenvolvidas contramedidas capazes de detectar ataques de apresentação à sistemas biométricos faciais, sendo criadas três abordagens distintas para a detecção de ataques de apresentação. As metodologias utilizam informações de movimento, energia de deformação das faces, descritores de texturas e esteganoanálise adequadamente projetados para um espaço de dimensão reduzido através de projeções aleatórias, análise de componentes principais e análise discriminante linear. As abordagem são capazes de detectar ataques a cada quadro de um vídeo e, para o estudo de caso, duas bases de dados foram avaliadas. Uma delas é a base de dados do Centro de Biometria e Pesquisa em Segurança da Academia Chinesa de Ciências, CASIA. E a outra, é a base de dados de fotografia de impostor da Universidade Nanjing de Aeronáutica e Astronáutica, NUAA. Através de um classificador de redes neurais artificiais a melhor metodologia desenvolvida alcança uma taxa de erro HTER = 4:93% para NUAA e HTER = 6:51% para CASIA.