Detalhes bibliográficos
Ano de defesa: |
2011 |
Autor(a) principal: |
Gurzoni Junior, José Angelo |
Orientador(a): |
Não Informado pela instituição |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Centro Universitário da FEI, São Bernardo do Campo
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://repositorio.fei.edu.br/handle/FEI/395
|
Resumo: |
Agentes operando em domínios multiagentes precisam cooperar e coordenar suas ações, e em alguns casos, competir com adversários ao mesmo tempo. Muitos destes domínios são também dinâmicos, como o futebol de robôs, a exploração submarina, planetária ou os ambientes com presença humana, criando a necessidade de que os agentes sejam capazes de tomar decisões complexas e se adaptar rapidamente a novas condições. Na literatura existem resultados positivos à respeito da aplicação do Aprendizado por Reforço em problemas complexos, em parte porque os agentes que utilizam esta técnica aprendem por experiência, sem a necessidade de modelos do ambiente em que operam. Porém, os requisitos computacionais do Aprendizado por Reforço são ainda restritivos, especialmente em domínios que necessitam de resposta em tempo real. Por outro lado, muitos dos sistemas de alocação de tarefas em multi-robôs encontrados na literatura tem tempos de execução e custo computacional baixos, ideais para estas aplicações. Este trabalho apresenta uma arquitetura de alocação de tarefas em sistemas multi-robôs em que os agentes participam de leilões pelas funções de alto nível disponíveis e utilizam Aprendizado por Reforço para aprender o valor de cada uma destas funções, dada a situação em que a equipe de robôs se encontra. A arquitetura foi aplicada a uma equipe de futebol de robôs da categoria RoboCup Small Size. Foram comparados os desempenhos do mecanismo de alocação de tarefas quando agentes utilizavam valores de seus lances ajustados manualmente, quando os valores eram aprendidos por aprendizado por reforço e também por aprendizado por reforço com heurísticas. Os resultados dos experimentos mostram que,o sistema de alocação de tarefas proposto é capaz de aumentar significativamente o desempenho da equipe, quando comparado com algoritmos em que o comportamento da equipe é pré-programado. |