Detalhes bibliográficos
Ano de defesa: |
2004 |
Autor(a) principal: |
Silva de França, Albanir |
Orientador(a): |
Dueire Lins, Rafael |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Federal de Pernambuco
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
https://repositorio.ufpe.br/handle/123456789/5872
|
Resumo: |
Com o advento da World Wide Web na década de 90, a Internet ganhou uma nova dimensão jamais imaginada pelo seu criador Tim Berners-Lee e seus colegas do CERN. A Web, como é conhecida hoje, utiliza documentos dinâmicos - denominados hipertextos - interligados entre si por meio dos denominamos hiperlinks. Os hiperlinks formam um grafo de alta complexidade e conectividade. Hoje, inexiste uma maneira consistente de gerenciar as páginas Web, levando freqüentemente a seguirmos endereços de páginas removidas. Esta dissertação apresenta uma aplicação do algoritmo de coleta de lixo para o gerenciamento consistente de páginas Web. Este algoritmo é baseado no algoritmo de gerenciamento automático de memória em sistemas distribuídos proposto por Lins, que utiliza a contagem de referência ponderada distribuída, aplicado à identificação e coleta de páginas não mais referenciadas, que podem estar em árvore ou formando ciclos |