Revisão de decisões automatizadas na Lei Geral de Proteção de Dados Pessoais
Ano de defesa: | 2022 |
---|---|
Autor(a) principal: | |
Orientador(a): | |
Banca de defesa: | |
Tipo de documento: | Tese |
Tipo de acesso: | Acesso aberto |
Idioma: | por |
Instituição de defesa: |
Universidade do Estado do Rio de Janeiro
Centro de Ciências Sociais::Faculdade de Direito Brasil UERJ Programa de Pós-Graduação em Direito |
Programa de Pós-Graduação: |
Não Informado pela instituição
|
Departamento: |
Não Informado pela instituição
|
País: |
Não Informado pela instituição
|
Palavras-chave em Português: | |
Link de acesso: | http://www.bdtd.uerj.br/handle/1/18276 |
Resumo: | A tese tem por fim analisar, em uma perspectiva funcional, o regime jurídico da revisão de decisões automatizadas, previsto pela Lei Geral de Proteção de Dados Pessoais (Lei n. 13.709 de 2018, acrônimo “LGPD”). A partir de Stefano Rodotà, notadamente sobre o diagnóstico da “ditadura dos algoritmos”, com a necessidade de desenvolver prerrogativas para a proteção da pessoa, adotou-se o método dedutivo, de caráter qualitativo e em atenção às premissas do direito civil-constitucional para investigar se a revisão de decisões automatizadas, tal como concebida na LGPD, detém bases normativas de um mecanismo de tutela substancial. A evolução que se desenhou da privacidade até a concepção de proteção de dados pessoais como direito fundamental autônomo foi abordada. Ainda, a necessidade de apreensão do fenômeno a partir de uma perspectiva coletiva, considerando o cenário de opacidade e de assimetria informacional e de poder entre titulares de dados e agentes de tratamento, foi apresentada a partir da dimensão coletiva da privacidade e da proteção de dados pessoais. A insuficiência da categoria de dados sensíveis foi apresentada com o propósito de demonstrar que a proteção da pessoa, no campo das decisões automatizadas, demanda progressivo escrutínio não apenas do input de dados, mas, sobretudo, de seu processamento e do output, o que deverá se dar para além das categorias, historicamente, associadas à discriminação. Conceitos do campo da inteligência artificial, de suas aplicações e da concepção de algoritmo foram delimitados neste trabalho a fim de identificar sua interface com a perspectiva regulatória. Com o intuito de sumarizar os problemas postos pela automatização de decisões, utilizou-se, como diretriz investigativa, mapa de problemas éticos estruturado com base nos seguintes desafios: evidências inconclusivas; evidências inescrutáveis; evidências mal orientadas; resultados discriminatórios; efeitos transformativos; e rastreabilidade. Adicionalmente, foram apresentadas contribuições da filosofia da linguagem, especialmente para identificar os limites subjacentes a um processo de decisão automatizado. Ademais, o regime jurídico das decisões automatizadas na LGPD foi analisado. Foram apresentados os objetivos e os fundamentos da norma, bem como analisada a sua principiologia em interface com o campo das decisões automatizadas. Aspectos de outros direitos dos titulares foram apresentados, especialmente aqueles com repercussões diretas no regime das decisões automatizadas. Os pressupostos para a qualificação de uma decisão como totalmente automatizada foram examinados, em cotejo com o modelo europeu sobre o tema, bem como o direito à explicação, enquanto pressuposto para o exercício da revisão e para a proteção de direitos fundamentais. A revisão de decisão automatizada foi analisada, à luz da legalidade constitucional, concluindo-se com a apresentação de três propostas para extrair o exercício substancial da revisão da LGPD: (i) importância da intervenção humana para a substancialidade da revisão; (ii) condicionamento da revisão a um regime sistêmico de responsabilidade e de prestação de contas, com o estabelecimento de parâmetros; e (iii) associação da revisão a um regime abrangente da fisiologia das situações jurídicas, bem como a um paradigma coletivo de proteção, para além da perspectiva individual. |