[pt] ESTENDENDO LINGUAGENS MULTIMÍDIA PARA SUPORTAR INTERAÇÕES MULTIMODAIS

Detalhes bibliográficos
Ano de defesa: 2017
Autor(a) principal: ÁLAN LÍVIO VASCONCELOS GUEDES
Orientador(a): Não Informado pela instituição
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: MAXWELL
Programa de Pós-Graduação: Não Informado pela instituição
Departamento: Não Informado pela instituição
País: Não Informado pela instituição
Palavras-chave em Português:
Link de acesso: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313&idi=1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313&idi=2
http://doi.org/10.17771/PUCRio.acad.32313
Resumo: [pt] Os recentes avanços em tecnologias de reconhecimento, como fala, toque e gesto, deram origem a uma nova classe de interfaces de usuário que não apenas explora múltiplas modalidades de interação, mas também permite múltiplos usuários interagindo. O desenvolvimento de aplicativos com interações multimodais e multiusuários trazem desafios para a sua especificação e execução. A especificação de uma aplicação multimodal é comumente o foco das pesquisas em interação multimodal, enquanto a especificação de sincronismos audiovisuais geralmente é o foco das pesquisas em multimídia. Nesta tese, com o objetivo de auxiliar a especificação de tais aplicações, buscamos integrar conceitos dessas duas pesquisas e propomos estender linguagens multimídia com entidades de primeira classe para suportar recursos multiusuário e multimodais. Essas entidades foram instanciadas nas linguagens NCL e HTML. Para avaliar nossa abordagem, realizamos uma avaliação com desenvolvedores NCL e HTML para capturar indícios de aceitação das entidades propostas e suas sintaxes nessas linguagens.