[pt] ESTENDENDO LINGUAGENS MULTIMÍDIA PARA SUPORTAR INTERAÇÕES MULTIMODAIS
Ano de defesa: | 2017 |
---|---|
Autor(a) principal: | |
Orientador(a): | |
Banca de defesa: | |
Tipo de documento: | Tese |
Tipo de acesso: | Acesso aberto |
Idioma: | eng |
Instituição de defesa: |
MAXWELL
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: | |
Link de acesso: | https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313&idi=1 https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=32313&idi=2 http://doi.org/10.17771/PUCRio.acad.32313 |
Resumo: | [pt] Os recentes avanços em tecnologias de reconhecimento, como fala, toque e gesto, deram origem a uma nova classe de interfaces de usuário que não apenas explora múltiplas modalidades de interação, mas também permite múltiplos usuários interagindo. O desenvolvimento de aplicativos com interações multimodais e multiusuários trazem desafios para a sua especificação e execução. A especificação de uma aplicação multimodal é comumente o foco das pesquisas em interação multimodal, enquanto a especificação de sincronismos audiovisuais geralmente é o foco das pesquisas em multimídia. Nesta tese, com o objetivo de auxiliar a especificação de tais aplicações, buscamos integrar conceitos dessas duas pesquisas e propomos estender linguagens multimídia com entidades de primeira classe para suportar recursos multiusuário e multimodais. Essas entidades foram instanciadas nas linguagens NCL e HTML. Para avaliar nossa abordagem, realizamos uma avaliação com desenvolvedores NCL e HTML para capturar indícios de aceitação das entidades propostas e suas sintaxes nessas linguagens. |