Named entity recognition on the Web
Ano de defesa: | 2019 |
---|---|
Autor(a) principal: | |
Orientador(a): | |
Banca de defesa: | |
Tipo de documento: | Dissertação |
Tipo de acesso: | Acesso aberto |
Idioma: | eng |
Instituição de defesa: |
Universidade Federal de Minas Gerais
Brasil ICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO Programa de Pós-Graduação em Ciência da Computação UFMG |
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: | |
Link de acesso: | http://hdl.handle.net/1843/31732 https://orcid.org/0000-0001-5637-6654 |
Resumo: | Métodos tradicionais de extração de informação na web normalmente utilizam regras rígidas para extrair dados relevantes de páginas da internet. Estes métodos são ade- quados para resolver tarefas de extração dentro de um mesmo website, mas eles são bem menos eficientes quando a tarefa compreende um conjunto heterogêneo de web- sites. Por outro lado, modelos de Reconhecimento de Entidades Nomeadas (NER) baseados em aprendizado de máquina oferecem uma alternativa mais flexível para re- solver o problema. No entanto, na maior parte das vezes, páginas HTML tem uma organização substancialmente diferente do texto em prosa, porque as frases são muito curtas, o que piora o desempenho dos modelos tradicionais de NER. Em contrapartida, a estrutura do HTML contém informação valiosa que pode ser utilizada para melhorar o desempenho dos modelos de NER. Nós propomos duas formas de utilizar esta infor- mação: a estratégia de auto-treinamento para Hidden Markov Models e o mecanismo de atenção para a Bi-LSTM-CRF, um tipo de rede neural. Além disso, nesta disser- tação, nós avaliamos o desempenho de diversos métodos de NER na tarefa de extração de informação na web. Em particular, introduzimos um dataset novo que consiste em páginas de departamentos de pesquisa extraídas dos sites de múltiplas universidades ao redor do mundo e testamos os modelos de NER na tarefa de extração de nomes de pesquisadores. Uma arquitetura de redes neurais que combina uma Bi-LSTM-CRF com representações de caracteres baseadas em LSTMs e o mecanismo rígido de atenção tem um desempenho superior aos demais métodos, alcançando um F1 de 90,2 na tarefa. Contudo, por meio da aplicação de estratégias como o auto-treinamento, conseguimos obter um modelo muito mais simples, o Hidden Markov Model de segunda ordem, que alcança um F1 de 87,9 na mesma tarefa. |