Detalhes bibliográficos
Ano de defesa: |
2024 |
Autor(a) principal: |
Ferraz, Ariéle Teixeira
 |
Orientador(a): |
Marcato, André Luis Marques
 |
Banca de defesa: |
Santos, Murillo Ferreira dos
,
Silva Junior, Ivo Chaves da
,
Biundini, Iago Zanuti
 |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Federal de Juiz de Fora (UFJF)
|
Programa de Pós-Graduação: |
Programa de Pós-graduação em Engenharia Elétrica
|
Departamento: |
Faculdade de Engenharia
|
País: |
Brasil
|
Palavras-chave em Português: |
|
Área do conhecimento CNPq: |
|
Link de acesso: |
https://repositorio.ufjf.br/jspui/handle/ufjf/16918
|
Resumo: |
O avanço tecnológico permite desenvolver métodos de assistência cada vez mais avançados. Estas tecnologias assistivas tem potencial para aumentar o conforto de pessoas com deficiências físicas. Dentro deste contexto, o desenvolvimento de métodos capazes de identificar comandos do usuário e realizar o controle de atuadores robóticos se mostra um campo interessante. Uma grande parcela das pesquisas nesta área utilizam tanto métodos com equipamentos de prateleira, ou COTS (do inglês Commercial Off-The-Shelf), quanto equipamentos especificamente projetados para o propósito, como eletroencefalogramas (EEG). Neste trabalho propõe-se um método que seja simples de se utilizar, não seja invasiva (sem EEG) e de menor custo possível. Logo, é apresentado uma metodologia de identificação de comandos do usuário a partir do movimento dos olhos utilizando de uma webcam e realizado o controle de um atuador robótico a partir destes comandos. Embora tenha sido identificado na literatura outros trabalhos com propósito similar, busca-se, aqui, uma alternativa de baixo custo de desenvolvimento. O trabalho foi confeccionado utilizando o sistema operacional Ubuntu 20.04 com Noetic ROS e os pacotes RT-GENE, utilizado para a obtenção do rastreio ocular e detecção de piscadas, e YOLO, visando detectar os objetos disponíveis para o usuário. O pacote python Tkinter foi utilizado para desenvolver a interface mostrada para o usuário. Por fim, os pacotes MoveIt, Gazebo e franka_ros foram utilizados para realizar as simulações de pick and place do manipulador. São apresentados ainda resultados de simulação utilizando a metodologia proposta, sendo possível verificar que a mesma possui potencial de continuidade na pesquisa, além da possibilidade de avaliação em ambiente real. Os testes com o robô Youbot revelaram desafios devido à necessidade de precisão e ao acúmulo de erros ao longo do tempo. No entanto, os testes com o manipulador Panda mostram que a resolução de uma webcam comum permitiu determinar a posição do objeto no mundo, embora o robô tenha apresentado dificuldades em executar sua tarefa para algumas posições. Apesar dos desafios, foi possível contornar o problema com uma implementação simples de tentativa e erro. Trabalhos futuros pretendem implementar outros modelos de robôs e realizar testes com robôs reais, além do acréscimo de sensoriamento no robô para garantir maior precisão em suas tarefas e evitar acidentes com pessoas que estejam em sua área de trabalho. |