Detalhes bibliográficos
Ano de defesa: |
2023 |
Autor(a) principal: |
Andrade, Sávio Pereira de |
Orientador(a): |
Silva, Alexandre Pacheco da |
Banca de defesa: |
Não Informado pela instituição |
Tipo de documento: |
Dissertação
|
Tipo de acesso: |
Acesso aberto |
Idioma: |
por |
Instituição de defesa: |
Não Informado pela instituição
|
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: |
|
Palavras-chave em Inglês: |
|
Link de acesso: |
https://hdl.handle.net/10438/34739
|
Resumo: |
Os sistemas de inteligência artificial de predição vêm sendo amplamente utilizados nas mais diversas esferas da vida humana, desde análise para concessão de crédito a recrutamento e seleção, ou mesmo auxílio a magistrados na dosimetria de penas e estabelecimento de regimes de cumprimento. No entanto, tem-se verificado diversos resultados discriminatórios e, portanto, violadores da equidade, no uso de tais ferramentas, seja em razão de raça, gênero, orientação sexual, entre outros. Este trabalho parte da compreensão deste cenário como incerteza jurídica gerada pela tecnologia, e examina o problema de como ampliar a eficácia do Direito enquanto instrumento de correção de desigualdades em sistemas de inteligência artificial a partir da inserção de obrigações jurídicas para equipes que constroem e desenvolvem os modelos decisórios desses sistemas, transformando-os em máquinas de igualdade, como definido por Orly Lobel. Ao final, examina o Projeto de Lei n.o 2.338/2023, em trâmite no Congresso Nacional, para aferir seu potencial de atender à proposta de construção da máquina de igualdade no Brasil. |