Detalhes bibliográficos
Ano de defesa: |
2024 |
Autor(a) principal: |
Azambuja, Flávia Braga de |
Orientador(a): |
Carmo, Juliano Santos do |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Tese
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Universidade Federal de Pelotas
|
Programa de Pós-Graduação: |
Programa de Pós-Graduação em Filosofia
|
Departamento: |
Não Informado pela instituição
|
País: |
Brasil
|
Palavras-chave em Português: |
|
Área do conhecimento CNPq: |
|
Link de acesso: |
http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/15058
|
Resumo: |
Esta tese investiga a capacidade de sistemas de inteligência artificial (IA) para engajar-se em tomadas de decisão moralmente significativas. A hipótese geral postula que, embora a IA esteja se tornando onipresente em contextos que exigem julgamentos morais, não podemos atribuir responsabilidade moral a sistemas autônomos, pois o conhecimento moral não pode ser completamente representado ou simulado por lógica. As hipóteses específicas exploram várias nuances dessa questão central. Argumenta-se que sistemas autônomos não possuem "motivação moral" e que, apesar da capacidade da IA de automatizar alguns processos de pensamento humano, como criatividade e decisões, ela não pode gerar conhecimento moral autêntico devido ao impacto do viés de dados e à natureza condicional e contextual do conhecimento. A tese também sustenta que não é possível estabelecer uma base para o conhecimento moral sem considerar o elemento da crença, nem simular artificialmente a crença para produzir conhecimento moral. Para examinar essas hipóteses, a tese utiliza dilemas morais, envolvendo situações de tomada de decisão complexa, que são modelados através de equações de lógica modal para avaliar a capacidade da IA de resolver esses dilemas. A análise mostra que, embora a IA possa simular respostas a dilemas baseando-se em premissas lógicas, sempre há uma lacuna significativa devido à ausência de motivação moral e compreensão contextual, cruciais para decisões genuinamente morais. Incorporando o pensamento de Stuart Mill e Jesse Prinz, a pesquisa aprofunda a compreensão de como conceitos filosóficos tradicionais podem ser aplicados a problemas modernos, ilustrando que a empatia, a motivação moral humana e o julgamento ético são aspectos que a IA atualmente não pode replicar ou incorporar de forma autônoma. A conclusão reforça que a IA, por mais avançada que seja, não pode substituir o julgamento moral humano. As contribuições científicas desta pesquisa são substanciais, promovendo o debate sobre ética da IA esclarecendo os limites da automatização de decisões morais. |