Detalhes bibliográficos
Ano de defesa: |
2023 |
Autor(a) principal: |
Cordova, Paulo Roberto |
Orientador(a): |
Vicari, Rosa Maria |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Tese
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Link de acesso: |
http://hdl.handle.net/10183/276722
|
Resumo: |
O avanço das tecnologias de Inteligência Artificial (IA) tem levantado preocupações acerca dos impactos éticos deste avanço em diversos campos. Para mitigar tais impactos, estudos recentes sugerem que a IA deve ser alinhada a valores humanos. Uma abordagem importante, nesse contexto, é a ética por design, que busca desenvolver sistemas autônomos com capacidade de raciocínio ético. No campo da educação, entretanto, as pesquisas existentes têm se concentrado principalmente nas implicações sociais da expansão da IA, negligenciando questões éticas fundamentais, como aquelas abordadas pelo framework Fairness, Accountability, Transparency e Ethics (FATE). Nesse sentido, a presente pesquisa propõe e descreve um modelo de Agente Moral Artificial (AMA) capaz de promover o engajamento comportamental em grupos de aprendizagem colaborativa. Os resultados evidenciaram, apesar das fragilidades identificadas, a capacidade do agente de tomar decisões éticas alinhadas a princípios deontológicos pré-estabelecidos e reconhecidos pela comunidade de pesquisa e a sua proficiência em lidar com dilemas éticos usando raciocínio utilitarista. Tais resultados marcam um progresso fundamental em direção a uma IA confiável no ambiente de ensino e aprendizagem. A integração ética da IA na educação e o estabelecimento de diretivas que permitem futuros avanços neste campo estão entre as principais contribuições desta pesquisa para o campo da Informática na Educação. |