Detalhes bibliográficos
Ano de defesa: |
2008 |
Autor(a) principal: |
Cony, Carlos Akcelrud |
Orientador(a): |
Jung, Claudio Rosito |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade do Vale do Rio do Sinos
|
Programa de Pós-Graduação: |
Programa de Pós-Graduação em Computação Aplicada
|
Departamento: |
Escola Politécnica
|
País: |
Brasil
|
Palavras-chave em Português: |
|
Área do conhecimento CNPq: |
|
Link de acesso: |
http://www.repositorio.jesuita.org.br/handle/UNISINOS/2259
|
Resumo: |
Este trabalho apresenta um modelo para prover habilidades perceptivas (visão, olfato e audição) aos agentes virtuais, focando em aplicações de simulação de multidões em situações de emergência. Os modelos visual e olfativo foram baseados em trabalhos já publicados por autores da literatura, enquanto que a audição virtual foi modelada com maiores detalhes. A modelagem do sistema auditivo baseou-se em características reais, tais como as atenuações do som em relação às perdas energéticas causadas pelas paredes (refrações) e distância percorrida pelo som. Além destas, foram estudados alguns comportamentos fisiológicos do ouvido humano, tais como a dificuldade em que um ser humano tem em ouvir determinadas bandas de freqüência, perdas auditivas decorrentes do envelhecimento, e ainda possíveis doenças auditivas. Ainda, aplicou-se um modelo de mascaramento sonoro, no qual alguns sons podem ser mascarados por outros com freqüências similares. O modelo perceptivo virtual foi avaliado em aplicações de simulação de |