Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads

Detalhes bibliográficos
Ano de defesa: 2022
Autor(a) principal: Meyer, Vinícius lattes
Orientador(a): De Rose, Cesar Augusto Fonticielha lattes
Banca de defesa: Não Informado pela instituição
Tipo de documento: Tese
Tipo de acesso: Acesso aberto
Idioma: eng
Instituição de defesa: Pontifícia Universidade Católica do Rio Grande do Sul
Programa de Pós-Graduação: Programa de Pós-Graduação em Ciência da Computação
Departamento: Escola Politécnica
País: Brasil
Palavras-chave em Português:
Palavras-chave em Inglês:
Área do conhecimento CNPq:
Link de acesso: https://tede2.pucrs.br/tede2/handle/tede/10326
Resumo: Os sistemas de computação continuam a evoluir para facilitar o aumento do desempenho ao processar cargas de trabalho em grandes data centers. A virtualização é uma tecnologia que permite que vários aplicativos sejam executados em um único computador físico, gerando várias vantagens, incluindo rápido provisionamento de recursos e melhor utilização de hardware. Os provedores de computação em nuvem adotam essa estratégia para usar sua infraestrutura de forma mais eficiente, reduzindo o consumo de energia. Apesar disto, nossas pesquisas na área têm mostrado que vários serviços em nuvem competindo por recursos compartilhados são suscetíveis à interferência entre aplicativos, o que pode levar a uma degradação significativa do desempenho e, consequentemente, a um aumento de quebras no número de acordos de nível de serviço. No entanto, o escalonamento de recursos de última geração em ambientes virtualizados ainda depende principalmente da capacidade dos recursos, adotando heurísticas como o bin-packing, ignorando essa fonte de sobrecarga. Mas, nos últimos anos, o escalonamento com reconhecimento de interferência ganhou força, com a investigação de maneiras de classificar os aplicativos em relação ao seu nível de interferência e a proposta de modelos estáticos e políticas para o escalonamento de aplicativos co-hospedados em nuvem. Os resultados preliminares nesta área já mostram uma melhoria considerável na redução de quebra de SLAs, mas acreditamos fortemente que ainda existem oportunidades de melhoria nas áreas de classificação de aplicações e estratégias de escalonamento dinâmico. Portanto, o objetivo principal deste trabalho é estudar o comportamento dos perfis de interferência dos aplicativos em nuvem ao longo de todo o seu ciclo de vida e sua suscetibilidade às variações da carga de trabalho, em busca de oportunidades para melhorar o compartilhamento de recursos em ambientes virtualizados com novas estratégias de escalonamento dinâmico. Para tanto, exploramos algumas questões específicas de pesquisa relacionadas à natureza dinâmica do processo, tais como: Como classificar aplicações baseadas na interferência de recursos em tempo real? Quando as classificações devem ser executadas? Quantos níveis devem ser usados? Quando devem ser escalonados? Quais são as compensações com o custo de migração? Para responder a todas essas perguntas, criamos uma arquitetura de escalonamento com reconhecimento de interferência que integra esses tópicos mencionados para lidar com cargas de trabalho dinâmicas sensíveis à latência em ambientes virtualizados. As contribuições deste estudo são: (i) uma análise do impacto das variações da carga de trabalho no perfil de interferência de aplicativos em nuvem; (ii) uma forma precisa e otimizada de classificar aplicativos em tempo real; (iii) uma nova estratégia de escalonamento com reconhecimento de interferência dinâmica para aplicativos em nuvem; e (iv) uma arquitetura dinâmica que combina as técnicas acima para entregar um escalonamento eficiente com reconhecimento de interferência em ambientes virtualizados. Os resultados evidenciaram que nossa arquitetura melhorou em média 25% a eficiência geral de utilização de recursos quando comparada com estudos relacionados.