Detalhes bibliográficos
Ano de defesa: |
2020 |
Autor(a) principal: |
Torres, Laura Amaya |
Orientador(a): |
Maciel, Anderson |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
eng |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Palavras-chave em Inglês: |
|
Link de acesso: |
http://hdl.handle.net/10183/224719
|
Resumo: |
A reconstrução de formas 3D a partir de imagens usando redes neurais convolucionais tornou-se um campo muito estudado nos últimos anos e tem demonstrado ótimo desempenho. Objetos rígidos e não rígidos foram reconstruídos usando vários tipos de representações em 3D, e abordagens com uma ou múltiplas imagens. Contudo, os objetos reconstruídos são parte do mundo exterior (são visíveis e podem ser fotografados). As técnicas de imagiologia mais utilizadas para obter informações visuais a partir de órgãos são as tomografias computadorizadas e a ressonância magnética, as quais não geram imagens 2D regulares. Nosso principal objetivo é avaliar a viabilidade de usar abordagens de aprendizado profundo para reconstruir diretamente modelos 3D de órgãos a partir de imagens médicas usando deformações de forma livre. Para isso, nós combinamos algoritmos existentes usados para segmentação de imagens médicas no espaço 3D com técnicas de reconstrução de objetos 3D em um modelo de rede neural completamente automático. Nós testamos nosso método proposto treinando modelos para dois órgãos diferentes, com maior e menor complexidade de forma (fígado e próstata, respectivamente). Os modelos reconstruídos gerados por nossa rede são coerentes com a forma geral dos órgãos, demonstrando que a mesma pode ser aprendida. Entretanto, mais trabalho precisa ser realizado de forma a obter modelos de órgãos que representem autenticamente a sua estrutura real. |