Detalhes bibliográficos
Ano de defesa: |
2017 |
Autor(a) principal: |
Fernandez, Luis Enrique Ortiz |
Orientador(a): |
Gonçalves, Luiz Marcos Garcia |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA MECATRÔNICA
|
Departamento: |
Não Informado pela instituição
|
País: |
Brasil
|
Palavras-chave em Português: |
|
Área do conhecimento CNPq: |
|
Link de acesso: |
https://repositorio.ufrn.br/jspui/handle/123456789/24331
|
Resumo: |
Na visão artificial usam-se vários dispositivos como o MS Kinect v1/v2, as câmeras estéreo PG Bumblebee XB3 e a Stereolabs ZED, entre outros. Como todos são dispositivos que estimam dados de profundidade, podem conter erros. Neste trabalho, apresenta-se o projeto e implementação de um método genérico para a estimação do erro RMS em dados de profundidade fornecidos por qualquer dispositivo, capaz de gerar dados do tipo RGB-D, isto é, uma imagem e um mapa de profundidade ao mesmo tempo. Para verificação do método foi construído um sistema embarcado baseado na placa NVIDIA Jetson TK1 e três sensores, as duas versões do MS Kinect e a câmera estéreo ZED. No momento da coleta de dados foram estabelecidos os modelos matemáticos do erro RMS para cada dispositivo e, ao final, foi feita uma análise da exatidão de cada um. |