Entropia da Informação para Sistemas de Dois Corpos
Ano de defesa: | 2013 |
---|---|
Autor(a) principal: | |
Outros Autores: | |
Orientador(a): | |
Banca de defesa: | |
Tipo de documento: | Dissertação |
Tipo de acesso: | Acesso aberto |
Idioma: | por |
Instituição de defesa: |
Universidade Federal do Amazonas
Instituto de Ciências Exatas BR UFAM Programa de Pós-graduação em Física |
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: | |
Link de acesso: | http://tede.ufam.edu.br/handle/tede/3453 |
Resumo: | Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-aditiva. Essas entropias serão aplicadas nos modelos atômicos de Mochinsky e Positrônio, que são sistemas de dois corpos. Para determinar a densidade das entropias, nos utilizamos a função de onda e a densidade de probabilidade para ambos os modelos atômicos. A entropia de Shannon tem uma dependência logarítmica, enquanto a entropia de Tsallis tem uma dependência do fator entrópico q , conhecido como fator entrópico de Tsallis. Em nosso trabalho, as entropias foram calculadas nos espaços das posições e também no espaço dos momentos, com isso utilizamos o conceito do principio da desigualdade de Heisenberg, adaptando para a entropia da informação. Para a entropia de Shannon, temos o principio de incerteza de Bialynici, Birula, and Mycielski, para a entropia de Tsallis chamamos de pseudo-incerteza. Por fim demonstramos graficamente o comportamento das entropias de ambos os formalismos. |