<span class="sans">Tutela antidiscriminatória na Lei Geral de Proteção de Dados:</span> problemáticas e alternativas

↘ Artigo
↘ Artigo

Luiza Xavier Morales

download da versão pdf ↓
volume 2 ⁄ número 2 ⁄ dez 2021 ↘ Artigo

Tutela antidiscriminatória na Lei Geral de Proteção de Dados: problemáticas e alternativas

Luiza Xavier Morales

Resumo

O presente artigo busca examinar a Lei Geral de Proteção de Dados (LGPD) em sua perspectiva de promoção da igualdade com base no mapeamento de seus dispositivos legais que contemplam questões antidiscriminatórias. Assim, esse estudo pretende analisar os obstáculos que tais dispositivos encontram diante dos desafios oriundos de sua aplicação perante a complexidade psicocultural de nossa atual sociedade. Uma sociedade que avança cada vez mais rápido para a implementação de novas tecnologias na construção e operação de uma economia orientada a dados na Era Digital. Com base no levantamento e na análise desses obstáculos, o estudo prossegue com a observação da relação comum que estes possuem com as noções utilizadas para identificarmos se uma situação é discriminatória ou não, sendo elas: o conteúdo do dado pessoal e a finalidade de seu tratamento. Alicerçado em tais observações, o presente artigo se conclui com a avaliação de possíveis alternativas para a mitigação dos obstáculos mencionados. Para tal, é lançado um olhar transdisciplinar e uma leitura harmonizada da matéria com questões já debatidas pela doutrina e jurisprudência nas esferas dos direitos civil-constitucional e antidiscriminatório.

1.Introdução

A proteção de dados pessoais congrega diversos fundamentos estimados pela sociedade moderna, tais quais: a privacidade, a autodeterminação informativa, a liberdade de expressão, o desenvolvimento econômico, a livre iniciativa, entre outros.

Este artigo se propõe a examinar os mecanismos de tutela formulados especificamente com vistas à promoção da igualdade, abarcada pelo fundamento contido no artigo 2º, inciso VII da Lei Geral de Proteção de Dados Pessoais (LGPD): “Art. 2º A disciplina da proteção de dados pessoais tem como fundamentos: (…) VII – os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais.” (BRASIL, 2018).

Fato é que a LGPD trouxe em diversos pontos de seu texto a ideia de busca pela promoção da igualdade mediante a proteção de dados pessoais. Em vista disso, a metodologia da presente pesquisa – essencialmente qualitativa – teve como ponto de partida o levantamento dos dispositivos que abordam o tema da discriminação na referida lei.1

Após o mapeamento dos dispositivos mencionados, o trabalho prosseguiu com o estudo, com base nas produções doutrinárias e científicas, de formas de discriminação próprias da sociedade contemporânea e do meio digital. Com base nisso, a pesquisa procurou contrastar as dinâmicas dessas formas com as ferramentas antidiscriminatórias presentes na LGPD, apresentando as problemáticas que atingem a tutela adotada por esse instrumento normativo.

Com as problemáticas levantadas, ao final do presente artigo, são apresentadas possíveis soluções jurisprudenciais e doutrinárias provenientes dos campos do direito civil, constitucional e antidiscriminatório, que poderiam ser acolhidas pelo direito à proteção de dados pessoais em sua perspectiva antidiscriminatória, a fim de garantir a efetividade desta.

2.Dispositivos antidiscriminatórios da LGPD

A proposta da LGPD em fornecer um norte para a implementação de uma tutela antidiscriminatória por meio da proteção de dados se mostra mais evidente em alguns de seus dispositivos, os quais chamaremos de dispositivos antidiscriminatórios.

Os dispositivos a serem destacados têm como característica comum a alusão a situações que poderiam ensejar discriminação. São eles: (i) a positivação do princípio da não discriminação; (ii) o conjunto de regras sobre a matéria de dados sensíveis; (iii) o direito de revisão de decisões automatizadas e o possível desdobramento de auditoria da Autoridade Nacional de Proteção de Dados (ANPD)2 para a verificação de aspectos discriminatórios em tais tratamentos de dados.

Vale lembrar que a igualdade – conforme mencionado anteriormente – está abarcada no conjunto de fundamentos da LGPD e assim deve ser considerada como um vetor para a aplicação de toda a lei3. Todavia, este trabalho terá como foco os dispositivos que tratam especificamente sobre discriminação, de forma a reconhecer o impacto destes na operacionalização e na implementação prática da tutela antidiscriminatória.

Com a entrada da lei em vigor, pelo menos de início, é de se esperar que os agentes de tratamento e os titulares de dados pessoais foquem seus esforços referentes a questões discriminatórias a partir de tais dispositivos, justamente por esses apresentarem orientações práticas específicas sobre o tema.

Os referidos dispositivos antidiscriminatórios acabam por estabelecer as bases para uma lógica valorativa e metodológica de implementação e aplicação da lei em sua perspectiva antidiscriminatória. O teor prático que esses dispositivos incutem faz com que eles se tornem a referência para a calibragem dos interesses dos agentes de tratamento, bem como a referência para a interpretação da lei por titulares e autoridades. Dessa forma, vale discorrer um pouco sobre a proposta e problemáticas de cada um deles.

2.1.Dados sensíveis

A Lei Geral de Proteção de Dados adotou como estratégia a designação de algumas categorias de dados pessoais à condição de dados pessoais sensíveis, de forma a reconhecer que determinadas informações costumam estar associadas a situações discriminatórias e/ou de considerável intrusão:

Art. 5º Para os fins desta Lei, considera-se:

[…]

II – dado pessoal sensível: dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural. […] (BRASIL, 2018).

A partir disso, a LGPD enrijeceu as regras para o tratamento desses dados, apresentando restrições nas hipóteses legitimadoras de tratamento4 e dispositivos que versam sobre a proteção do uso de tais dados frente a interesses econômicos (BRASIL, 2018).

2.2.Princípio da não discriminação

Entre os dispositivos da LGPD que versam sobre a tutela antidiscriminatória, está o princípio da não discriminação, que proíbe o tratamento de dados para fins discriminatórios ilícitos ou abusivos (BRASIL, 2018, art. 6º, inciso IX), instituindo a finalidade do tratamento como elemento de identificação de tratamentos discriminatórios.

2.3.Direito de revisão de decisões automatizadas

Levando em consideração a opacidade que as novas tecnologias exercem por conta da automatização, a LGPD optou por trazer em seu texto o direito de o titular solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, bem como previu o dever de o agente de tratamento proceder essa revisão à luz do princípio da transparência.

Não obstante a LGPD ter sopesado tal dever de transparência, reconhecendo a possibilidade de que o agente defenda seu direito ao sigilo comercial e industrial, a lei também trouxe a consideração de que a ANPD poderia então realizar auditoria para verificação de discriminações em tratamentos automatizados, buscando assim a compatibilização de ambas as preocupações (BRASIL, 2018).

3.Possíveis problemáticas da tutela antidiscriminatória proposta pela LGPD

Apresentadas as ferramentas legais introduzidas pela Lei Geral de Proteção de Dados, prosseguiremos agora com a avaliação desses dispositivos à luz de questões discriminatórias levantadas pelo direito antidiscriminatório e pelas dinâmicas estabelecidas por novas tecnologias e organizações socioculturais e econômicas. Para tal, compilamos algumas das questões mais debatidas no tema, no intuito de desenhar possíveis relações e alternativas em comum.

3.1.Limitações da interpretação taxativa dos dados sensíveis

Tema recorrente de debate, o caminho pelo estabelecimento de um standard de proteção mais rígido com base em uma lista de conteúdos tidos como identificadores de grupos histórico e socialmente marginalizados – tal qual a opção pela implementação do rol de dados sensíveis – costuma provocar diversos questionamentos.

O debate em relação ao mecanismo de listagem e a discussão em torno de sua taxatividade5 têm como um de seus principais desafios a existência de vivências que, apesar de não abarcadas pela listagem legal, podem igualmente ser alvo de discriminação. A título de exemplificação, podemos mencionar informações referentes a gênero, idade, classe social, deficiência, antecedentes criminais, regionalismos, gravidez, entre outros.

Em relação a isso, cabe a observação de que se há algo que podemos constatar na história é que o paradigma da igualdade não é percebido de forma universal tanto por grupos privilegiados quanto por grupos minorizados6. E a história do direito contém diversos exemplos de conquistas de garantias fundamentais que falharam em sua “intenção universal” de alcançar a todos, o que denuncia uma verdadeira dificuldade de percepção no tocante à diversidade de vivências marginalizadas de seu tempo e à possibilidade de uma organização social que concedesse tais direitos de forma material e genuinamente universal.7

Isto posto, cabe dizer que a enunciação de categorias de dados sensíveis já pode ser vista como um avanço, pois esta, em certo grau, se aproxima das posturas defendidas pela teoria e pelos movimentos de reivindicações de reconhecimento legal de grupos histórico e socialmente marginalizados, o que apresenta um contraste em relação à já experimentada e malsucedida teoria de igualdade pela neutralidade, proveniente da corrente de pensamento do liberalismo político8.

Outra questão a ser levantada é que a tutela antidiscriminatória de dados não compreendidos nas situações-tipo – ou ainda fattispecies – enunciadas no rol de dados sensíveis não ficaria de todo desamparada pela LGPD. Para esses casos, haveria a possibilidade de responsabilização diante da ocorrência de dano pelo princípio da não discriminação. E ainda haveria também a possibilidade do exercício do direito de revisão de decisões automatizadas, com possível auditoria da ANPD. Assim dizendo, tais situações poderiam ser protegidas pelos outros dispositivos já enunciados no segundo tópico deste estudo, os quais demandariam uma provocação ou fiscalização por parte do titular de dados e/ou da autoridade nacional.

Todavia, principalmente com base em uma perspectiva de direito civil-constitucional, devemos considerar que a tutela de direitos não se dá apenas quando uma lesão se concretiza, de forma a reprimi-la ou ainda indenizá-la, mas que a tutela pode e deve tomar forma preventiva, inibitória ou ainda positiva para viabilizar a sua máxima realização (SCHREIBER, 2015 como citado em NEGRI & KORKMAZ, 2019).

Também sobre o tema, Danilo Doneda (2019) entende que à tutela remedial, típica do direito subjetivo, faltam os instrumentos adequados à realização da função promocional da tutela da proteção de dados e nela igualmente não é concebida a dimensão coletiva na qual se insere a problemática da matéria.

Assim, não parece adequado que a LGPD, enquanto uma lei que traz em seu texto formulação fortemente voltada para a valorização da prevenção9, haja estipulado que parte das pessoas que sofrem algum tipo de discriminação tenham a sua proteção relegada a uma tutela meramente repressiva, permitindo, então, que a interpretação taxativa dos dados sensíveis refreasse, em alguns casos, a promoção de posturas mais concretas a serem tomadas no processo de adequação organizacional à lei, como as restrições de bases legais do artigo 11.

Por tais questões, em contrapartida, a estratégia de um arrolamento de núcleos fattispecies abre espaço para um debate em torno das dificuldades de se alcançar a isonomia no trato da tutela antidiscriminatória de forma conciliada com práticas culturais e alcançar a tutela da segurança jurídica.

Como obstáculo para a interpretação exemplificativa do rol de dados sensíveis, temos o fato de que alguns dados – que podem ensejar discriminação – estão culturalmente enraizados no conjunto de informações comumente solicitadas em procedimentos padrão, como aberturas cadastrais ou até em dados contidos por padrão em documentos de identificação, nos quais podemos citar informações de faixa etária, gênero e naturalidade como exemplo.

Além disso, o enquadramento de um dado como sensível é algo que demanda mudanças substanciais para a forma de trabalho dos agentes de tratamento, implicando em cargas mais altas de avaliação de impacto, de medidas de segurança da informação, na reestruturação do processo ou até em sua cessação.

Somado a isso, temos o fato de que o General Data Protection Regulation (GDPR)10 e outras normas de proteção de dados no mundo seguiram o mesmo modelo de listagem de dados sensíveis11, o que adicionaria uma considerável complexidade de adequação para empresas com fluxos internacionais de dados, caso realizássemos a ampliação de tal lista.

Por fim, de forma oposta à preocupação no que se refere às discriminações não abarcadas pelas situações-tipo do rol de dados sensíveis, temos também a preocupação em relação ao tratamento de dados que, embora não sejam utilizados para fins discriminatórios, sejam enquadrados como sensíveis. Como exemplo, temos as fotografias de pessoas; algo que, mesmo sem a possibilidade de identificação biométrica12, poderia facilmente indicar dados relacionados à origem étnica e racial ou ainda à opinião política e convicção religiosa. E, assim, práticas largamente difundidas de tratamento de imagens poderiam sofrer restrições demasiado rígidas.

Com tais questões em mente, podemos concluir que a listagem de dados sensíveis tem seu papel e seus espaço, mas ainda assim apresenta diversos desafios em sua aplicação. Isso ocorre fortemente pelo fato de a lente escolhida como parâmetro de aplicação ser o conteúdo do dado pessoal, que ora restringe a tutela antidiscriminatória, ora a aplica de forma automática. Assim, também faz parte desse trabalho analisar se o direito traz outros parâmetros que poderiam ser considerados para uma melhor tutela antidiscriminatória.

3.2.Discriminações por associação13

Outro ponto que pode trazer dúvidas em relação à eficácia da norma em seu aspecto antidiscriminatório é o fato de que a discriminação tem como forma de funcionamento o processo de associação, em que pessoas não pertencentes a grupos minorizados podem ser discriminadas devido a alguma associação a tais grupos.

Para exemplificar um ato de discriminação por associação, cito o caso exposto por Sandra Wachter (2019) em seu artigo “Affinity profiling and discrimination by association in online behavioural advertising”. O caso diz respeito a uma comerciante na Bulgária, que possuía um estabelecimento localizado em uma área habitada majoritariamente por pessoas do povo romani. A comerciante em si não era romani, mas se sentiu discriminada quando o medidor de energia elétrica de seu estabelecimento foi instalado a uma altura de 6 metros do chão, tornando o monitoramento do consumo de energia uma tarefa impossível.

A razão por trás de tal altura era a prevenção de adulteração dos medidores. No entanto, áreas não habitadas majoritariamente por pessoas romanis tinham seus medidores instalados em altura significativamente menor que 6 metros. Assim, a comerciante, mesmo não pertencendo ao grupo-alvo de discriminação, foi afetada por uma norma discriminatória aplicada com base em um critério de geolocalização.

Nesses casos, o indivíduo não é discriminado propriamente por meio do tratamento de um dado sensível, mas por sua aproximação a grupos-alvos de discriminação com base em parâmetros como geolocalização, contatos, interesses, entre outros.

Conforme vimos, a metodologia associativa tem seus exemplos na vida analógica como o episódio exposto acima. Todavia, é no mundo digital, e mais especificamente no mundo orientado a dados, que tal metodologia é intensificada. Essa intensificação que se dá por dois motivos: o primeiro é a reorientação da lógica econômica para a extração, produção e exploração baseada no conhecimento sobre pessoas14; e o segundo é o desenvolvimento das tecnologias digitais15 e seu expressivo aumento na capacidade de coleta, armazenamento e processamento caracterizado pelo advento do Big Data.

Esses motivos estão interconectados entre si e sua disseminação está em curso não apenas nas Big Techs e startups, mas na cadeia produtiva como um todo, desde empresas tradicionais a órgãos estatais.

Dessa forma, as – cada vez mais difundidas – metodologias de análise e mineração de dados aplicadas no Big Data apresentam uma dinâmica orientada à associação de grupos. Temos como tendência o uso de técnicas como o clustering, que, com base na observação de padrões, formam grupos ad hoc caracterizados por liames esporádicos e voláteis (MITTELSTADT, 2017).

Do mesmo modo, é possível observar que a metodologia de associação se caracteriza pelo uso de inferência estatística ao promover a dedução de dados pelos padrões estatísticos16. O que, de forma alguma, desincumbe a prática de qualquer responsabilidade perante possíveis efeitos discriminatórios. Nesse contexto, Cathy O’Neil (2020) traz a reflexão de que um programa automatizado de estatísticas reproduz padrões estatísticos sem possuir meios para aprender com seus falsos positivos, e as pessoas afetadas por esses equívocos possuem poucos recursos para tomar conhecimento do uso de tais padrões como critérios, muito menos averiguar o seu emprego, exigir e acompanhar a sua correção.

Assim, as novas tecnologias trazem uma complexidade que, em certo grau, se afasta da estratégia de proteção antidiscriminatória exprimida pelo rol de dados sensíveis, o qual, conforme mencionado anteriormente, é orientado pela observação do conteúdo do dado como parâmetro de operacionalização da tutela.

A ideia de finalidade como parâmetro identificador de situações de discriminação por associação também escapa à essa dinâmica associativa. Afinal, um tratamento com uma finalidade não discriminatória em sua essência pode se utilizar de um método associativo, que promove discriminação de pessoas.

É importante ter em mente que, apesar de termos mencionado dois motivos para a intensificação da metodologia associativa no mundo digital, eles se relacionam entre si de forma no mínimo particular. Nesse sentido, Shoshana Zuboff (2021) remete à lição de Max Weber, para quem os fins econômicos estão sempre imbuídos no desenvolvimento e na implantação da tecnologia. E, assim, Zuboff prossegue com a importante reflexão de que as tecnologias digitais não são fins em si mesmas, afinal são subjugadas pela orientação lógica própria da forma econômica adotada em nossos tempos: o capitalismo de vigilância.

É essencial que entendamos tal dinâmica para que, ao analisarmos as ferramentas e as técnicas utilizadas no meio digital, não nos equivoquemos em acreditar que as suas particularidades – como as relacionadas à discriminação por associação – se dão como características intrínsecas e, por sua vez, expressões inevitáveis das tecnologias empregadas.

Por fim, cabe abordar aqui que a LGPD previu em seu texto a possibilidade de inferência de dados sensíveis com base nos dados pessoais tidos como comuns. Isso garante às informações a mesma proteção dedicada aos dados sensíveis, nos seguintes termos: “§ 1º Aplica-se o disposto neste artigo a qualquer tratamento de dados pessoais que revele dados pessoais sensíveis e que possa causar dano ao titular, ressalvado o disposto em legislação específica.” (BRASIL, 2018, art. 11).

Entretanto, essa disposição não parece fornecer caminhos para uma tutela que esteja em sintonia com a dinamicidade que tais tecnologias podem implicar em seus processos associativos. Afinal, a expressão “que revelem dados pessoais sensíveis”, em uma leitura fria, pode denotar a presunção de que o conteúdo discriminatório é sempre tangível e sempre produto de uma associação que é correta.

Isto posto, o tema de discriminação por associação necessita de mais desenvolvimento, de forma a buscar caminhos para a adequação e a fiscalização que estejam em sintonia com a dinamicidade, volatilidade, e por vezes opacidade que as novas tecnologias digitais e a tônica econômica podem implicar.

3.3.Discriminação indireta

Outra questão que a LGPD parece não ter se debruçado especificamente em seu texto é a discriminação indireta, conceituada como a discriminação causada em situações em que existem normas e processos aparentemente neutros que acabam por produzir efeitos discriminatórios, especialmente contra grupos e indivíduos histórico e socialmente marginalizados (CORBO, 2018).

No caso hipotético, a título de exemplificação, poderíamos supor que uma plataforma de vagas de emprego que utilize a proficiência em idiomas ou o nível de escolaridade dos candidatos como elementos de composição de score – independentemente dos requisitos da vaga assinalados pelo empregador – estaria praticando uma discriminação indireta por não levar em consideração o reflexo dessa medida em grupos minorizados ou vulneráveis.

Esse tipo de discriminação diferencia-se da discriminação direta, causada por determinada norma ou prática que discrimina frontalmente uma pessoa pelo emprego de critérios rechaçados pelo ordenamento jurídico e com base em uma intenção discriminatória.

Em vista disso, é de extrema importância que nós entendamos que a noção de discriminação direta é incompleta para a compreensão da complexidade do fenômeno discriminatório, principalmente no que tange à:

[…] premissa de que atores sociais sempre atuam racionalmente; nesse sentido, a discriminação seria um desvio desse padrão e, assim, só pode ser compreendida como um elemento comportamental. Portanto, ela não possui um aspecto coletivo, nem pode estar ligada ao funcionamento normal de instituições. (MOREIRA, 2020, p. 400).

Cabe lembrar que a discriminação indireta está associada à discriminação estrutural, a qual é dada pela interligação dos diferentes sistemas discriminatórios e pela acumulação de seus efeitos negativos nas vidas de grupos minorizados ou vulneráveis. A discriminação indireta ocorre com a ajuda da discriminação estrutural, que, por sua vez, é retroalimentada por aquela.

Essa forma de discriminação prescinde o uso de dados sensíveis, bem como a sua inferência. Aqui, mais uma vez, o parâmetro do conteúdo é insuficiente para a identificação dessa forma de discriminação, na qual é possível notar evidente insuficiência que um parâmetro de finalidade implicaria caso fosse aplicado para a identificação de uma situação discriminação indireta. Afinal, muitas vezes, o tratamento de dados gerador dessas discriminações possui propósitos legítimos e a discriminação acaba por operar fora do radar dos formuladores de suas regras e dos próprios afetados pela discriminação.

3.4.Discriminação inconsciente

Ainda é relevante averiguarmos um aspecto revelado por muitos estudos psicossociais que exploram como a estrutura psíquica do ser humano interage com a discriminação, mais especificamente, como se dá a reprodução inconsciente desta.

Em sua obra Tratado de direito antidiscriminatório, Adilson José Moreira conceitua que “a discriminação inconsciente designa aqueles atos que afetam o julgamento do agente sobre membros de outros grupos, sendo que ele não está ciente das motivações de seu comportamento.” (2020, p. 436).

Assim sendo, Moreira (2020) sublinha a importância de se levar em conta a centralidade do inconsciente na vida psíquica dos indivíduos, segundo os ensinamentos da teoria psicanalítica. E, de forma semelhante, o autor aponta para a importância de se considerar a centralidade da categorização e o investimento emocional em tais categorias no processo cognitivo, conforme apontado pela psicologia cognitiva.

Sobre o inconsciente, cabe relembrar que ele pode ser conceituado como parte constitutiva do aparelho psíquico, formada por questões vivenciadas pelo indivíduo e que por algum motivo foram reprimidas, de forma que o acesso a estas se dá apenas por meio de produtos derivados, como sonhos, ato falhos, esquecimentos, entre outros17.

Nesse sentido, cumpre realizar menção também ao conceito de inconsciente coletivo, elaborado por Carl Jung, o qual diz respeito a uma estrutura básica da psique humana que sofre os mesmos processos de recalcamento, porém em um âmbito coletivo e cultural, sem prejuízo de reconhecer também na psicologia social, nas ciências sociais e na própria psicanálise o estudo da relação que processos históricos e culturais exercem na transubjetividade inerente ao inconsciente.

Ainda referente à relação do inconsciente com as dinâmicas sociais de discriminação, destaca-se a produção de autores como Maria Aparecida da Silva Bento (2002), Célia Marinho de Azevedo (1987), Lia Vainer Schucman (2016), René Kaës (1997), Frantz Fanon (2008), Lélia Gonzalez (1988) para citar alguns. Entre tais contribuições, Kaës sublinha a existência de “uma transmissão intergeracional dos conteúdos inconscientes, a ideia de um recalcamento coletivo de um ato transgressivo cometido em comum, a hipótese de uma psique de massa, ou ainda a alma de grupo” (1997 como citado em BENTO, 2002, p. 55).

Assim, da mesma forma que a discriminação direta está cedendo espaço para formas menos nítidas de discriminação, como a discriminação indireta, a discriminação consciente está se deslocando do para o inconsciente. Nesse sentido, Moreira aponta que:

A dinâmica inconsciente do preconceito está relacionada com os diferentes tipos de regulação cultural de atitudes individuais. Na medida em que o racismo deixa de ser socialmente aceitável, ele passa a atuar no plano inconsciente; da mesma forma que a cultura rejeita atos racistas, a mente humana reprime suas manifestações conscientes que expressam animosidade em relação a membros de outros grupos. Mas isso não significa que ele não deixa de determinar o comportamento dos indivíduos de uma forma ou de outra, pois as associações negativas sobre membros de outros grupos continuam a determinar a forma como as pessoas são categorizadas. (2020, p. 436-437).

Dito isso, não podemos deixar de pensar sobre os diversos reflexos da psique discriminatória no âmbito da tecnologia digital. A primeira forma se daria pela via consciente, na qual desenvolvedores intencionalmente produziriam tecnologias discriminatórias. Contudo, desenvolvedores podem seguir esse caminho de forma inconsciente e a discriminação ser criada com base em visões que partem de estereótipos ou da invisibilidade de grupos minorizados ou vulneráveis, sendo essa visão produto de contextos históricos e reproduzida de forma simbólica em nossa cultura. A discriminação ainda pode se desenvolver segundo elementos psicológicos refletidos no ambiente ou na base de dados utilizados no processo de desenvolvimento da tecnologia, os quais também são determinados ou influenciados pelo contexto social. Por fim, no âmbito da inteligência artificial, destaca-se que a discriminação pode se baseada em seu empenho na emulação do processo cognitivo humano, por meio de procedimentos de classificação, categorização, generalização, previsão e aprendizagem (MOREIRA, 2020).

Tais situações, com exceção da primeira, demonstram como a tecnologia pode atuar em sintonia com a reprodução inconsciente da discriminação, de forma a operar como um indivíduo que discrimina sem a ciência e a intenção18 de atribuir um dano a alguém.

Assim sendo, aqui também podemos verificar as problemáticas apontadas pelos tópicos anteriores, em que a finalidade do tratamento e o conteúdo do dado se mostram como noções insuficientes para nortear a tutela antidiscriminatória. Afinal, quando pensamos em discriminações inconscientes, nos fica claro como as noções de conteúdo e de finalidade pressupõem a construção de critérios cognoscíveis à racionalidade, bem como uma intencionalidade discriminatória, que só pode ser desenvolvida também no âmbito da consciência, restando evidente que a finalidade e o conteúdo como parâmetros eleitos para a identificação de situações discriminatórias são insuficientes para a identificação de discriminações que operam de forma inconsciente.

4.Possíveis soluções para a tutela antidiscriminatória no âmbito da LGPD

Realizada a apresentação de questões tratadas pelo direito antidiscriminatório e a sua contextualização perante o cenário tecnológico e econômico, a análise a seguir buscará, enfim, sumarizar as problemáticas levantadas e desenhar possíveis relações e alternativas em comum.

A primeira observação diz respeito ao fato de que as discriminações apontadas no capítulo anterior podem estar interligadas entre si, de forma que uma única situação pode atrair problemáticas em diversas frentes.

A título de exemplo, é possível imaginar o caso de uma pessoa jovem que, ao contratar um serviço, sofre discriminação por associação devido ao seu histórico de compra, que a correlaciona com hábitos de idosos. Nessa situação, pode se verificar uma discriminação por associação que também é atingida pela problemática da interpretação taxativa dos dados sensíveis. Sendo assim, esse exemplo ajuda a ilustrar que a qualquer momento uma dada pessoa pode estar sofrendo com uma ou mais formas de discriminação.

Em segundo lugar, foi possível observar que as problemáticas encontradas envolvem as noções utilizadas para identificarmos se uma situação é discriminatória ou não. Sendo elas o conteúdo do dado pessoal e a finalidade de seu tratamento.

4.1.Alternativas para o conteúdo do dado e para a finalidade do tratamento

Em relação à noção de conteúdo do dado, podemos citar algumas alternativas para o estudo da problemática da interpretação taxativa do rol de dados sensíveis. A primeira delas aponta para relevante construção de entendimento do Supremo Tribunal Federal no que diz respeito à definição de raça. Tal entendimento abandonou uma concepção simplista e puramente biológica do conceito e adotou visão mais compatível com a leitura sociológica e antropológica do fenômeno da discriminação racial.

Essa concepção de racismo, exarada inicialmente no Habeas Corpus (HC) nº 82424/RS (BRASIL, 2003) referente à compreensão do antissemitismo como forma de racismo, foi recentemente reiterada na Ação Direta de Inconstitucionalidade por Omissão (ADO) nº 26 (BRASIL, 2019a) e no Mandado de Injunção (MI) nº 4733 (BRASIL, 2019b), para abranger discriminação relacionada à orientação sexual e à identidade de gênero, conforme trecho a seguir:

O conceito de racismo, compreendido em sua dimensão social, projeta-se para além de aspectos estritamente biológicos ou fenotípicos, pois resulta, enquanto manifestação de poder, de uma construção de índole histórico-cultural motivada pelo objetivo de justificar a desigualdade e destinada ao controle ideológico, à dominação política, à subjugação social e à negação da alteridade, da dignidade e da humanidade […] (BRASIL, 2019a).

Nessa lógica, mesmo havendo o entendimento pela taxatividade dos dados sensíveis, discriminações que envolvem identidade de gênero e orientação sexual podem ser entendidas como expressões de raça e assim protegidas pelo núcleo de “origem racial ou étnica” do rol de dados sensíveis adotado pelo artigo 11 da Lei Geral de Proteção de Dados Pessoais (FICO, SICUTO & NÓBREGA, 2020).

Tal alternativa é muito interessante por justamente elucidar o aspecto político, sistêmico e social da discriminação. Todavia, em termos práticos, cabe a reflexão se esse caminho não seria mais tortuoso, principalmente em relação a discriminações que possuem menos literatura e/ou projeção social. Bem como o apontamento de que esse expediente não dirime as questões levantadas pelo uso de dados sensíveis sem fins discriminatórios.

Na sequência, outra alternativa que pode ser apontada como solução para a problemática derivada da averiguação do conteúdo do dado parte do necessário entendimento de que a proteção de dados pessoais está inclusa no que chamamos de direitos da personalidade. E por essa lógica, a matéria deve ser lida como parte integrante da cláusula geral de tutela e promoção da pessoa humana (BIONI, 2019).

Com o advento do Estado Social, o ordenamento jurídico como um todo passou a integrar e se submeter ao sistema axiológico proposto pela Constituição Social, documento que se torna o ponto de convergência de todo o ordenamento e que emite valores e posturas a serem tomados por todas as normas infraconstitucionais. É nessa lógica que se desenvolve o valor fundamental da dignidade da pessoa humana e o imperativo de sua aplicação para a proteção integral da personalidade, inclusive no âmbito da proteção de dados pessoais (NEGRI & KORKMAZ, 2019). Nesse sentido,

No cenário brasileiro, a proteção da pessoa tem sua referência na dignidade, que se constitui como um dos pilares da República, dela emergindo a cláusula geral de tutela da pessoa humana. Toda a ordem constitucional passa a ser permeada por essa axiologia, inclusive o direito civil, a resultar no imperativo de proteção dos valores existenciais, que se sobrepõem à lógica puramente proprietária. Com efeito, a baliza é o direito civil-constitucional. (NEGRI & KORKMAZ, 2019, p. 81).

Com base nesse sistema, é possível perceber como o ordenamento se organizou para um atendimento mais isonômico frente à complexidade das manifestações que envolvem as características e os atributos essenciais da pessoa humana, os quais não conseguem ser previstos, previsíveis ou representados em sua totalidade por meio de fattispecies19.

Nessa direção, há também a crítica de que, aos dados pessoais, não cabe uma tutela fundada no formato de direitos subjetivos, que tipicamente evocariam uma proteção alinhada à lógica patrimonial, a qual escapa das funções promocionais típicas dos direitos da personalidade. Em relação aos direitos da personalidade, Maria Celina Bodin de Moraes (2010) coloca:

O direito subjetivo, concebido para titularizar as relações patrimoniais, não se adapta perfeitamente à categoria do “ser”, âmbito das relações extrapatrimoniais, onde não existe dualidade entre sujeito e objeto, porque ambos representam a pessoa humana. Esta problemática transposição vem ocorrendo mediante a atribuição de uma série de características excepcionais aos direitos
subjetivos comuns – necessariedade, vitaliciedade, extrapatrimonialidade, inalienabilidade, indisponibilidade, inexpropriabilidade, intransmissibilidade, irrenunciabilidade, impenhorabilidade, imprescritibilidade –, mas que, mesmo assim, não estão aptas a garantir uma valoração apropriada do merecimento de tutela dos interesses em jogo, especialmente por continuarem a revestir, no âmbito civilista, uma ótica de proteção essencialmente repressivo-ressarcitória. (p. 4-5)

Tal crítica faz especial sentido quando levamos em conta que a proteção de dados pessoais, como direito da personalidade, diz respeito à instância extrapatrimonial do indivíduo, ao seu campo existencial, que não se esgota em uma subjetividade solitária, mas se desenvolve por meio da intersubjetividade que se forja nas relações sociais.

A isso, soma-se o fato de que o uso de dados pessoais traz diversos impactos para coletividade. E assim podemos observar que o direito à proteção de dados se relaciona de forma instrumental com essa esfera, tanto na dimensão de formação de intersubjetividade e desenvolvimento da personalidade dos indivíduos quanto em relação à proteção e à promoção de interesses coletivos, como a democracia e a igualdade.

Dessa maneira, a interpretação do STF no que diz respeito ao conceito de raça, tal qual a adoção da cláusula geral de proteção da pessoa humana, constituem boas soluções para as problemáticas oriundas do rol de dados sensíveis. Todavia, essas soluções ainda amarram a discriminação à ideia de conteúdo do dado, o que pode representar um obstáculo à tutela antidiscriminatória em tratamentos de dados que realizem discriminações por associação ou na modalidade indireta e/ou inconsciente.

O conceito de finalidade vem, então, como uma possível saída para avaliações que são limitadas pela noção de conteúdo discriminatório, sendo, inclusive, uma boa baliza para os casos comentados de práticas difundidas de tratamento de dados sensíveis que não tenham fins discriminatórios.

Todavia, a noção de finalidade também tem as suas limitações e, para ilustrá-las, cabe a lembrança dos dispositivos legais que a qualificam na Lei Geral de Proteção de Dados:

Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios:

I – finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades;

[…]

IX – não discriminação: impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos; […] [itálicos nossos] (BRASIL, 2018).

Assim, é de se observar que discriminações indiretas, por associação e processos inconscientes muitas vezes possuem propósitos que cumprem todas as condições legais no quesito da finalidade. Esse imbróglio muito se dá pelo fato de que associamos a finalidade a uma noção de intencionalidade do agente, enquanto as discriminações mencionadas se desenvolvem independentemente da avaliação ou da justificativa de intenções originais. A discriminação pode se dar nas consequências residuais dos processos, nas conclusões a mais, no que não é intencional justamente por não ser cognoscível.

4.2.Teoria dos impactos adversos e direito à adaptação razoável

Cabe ressalvar que as noções de conteúdo e de finalidade não deixam de ser importantes para a aplicação da tutela antidiscriminatória pela LGPD. Esses conceitos ajudam a identificar prontamente situações típicas de discriminação, bem como outras questões estimadas pela lei, o que promove certa agilidade para o processo de averiguação de infrações e por tais motivos se mostra muito útil e necessário. Todavia, os conceitos de finalidade e conteúdo do dado não levam em consideração algo que já vem sendo entendido pelo nosso ordenamento jurídico como elemento das relações discriminatórias.

Nessa direção, Wallace Corbo (2018) nos lembra do disposto na Convenção Internacional sobre os Direitos das Pessoas com Deficiência de Nova York, que passou a integrar a ordem constitucional nos termos do artigo 5º, § 3º da Constituição Federal20 e trouxe o conceito de discriminação (especificamente aquela praticada contra pessoas com deficiência) para o artigo 2º do Decreto n. 6.949 que a internalizou:

“Discriminação por motivo de deficiência” significa qualquer diferenciação, exclusão ou restrição baseada em deficiência, com o propósito ou efeito de impedir ou impossibilitar o reconhecimento, o desfrute ou o exercício, em igualdade de oportunidades com as demais pessoas, de todos os direitos humanos e liberdades fundamentais nos âmbitos político, econômico, social, cultural, civil ou qualquer outro. Abrange todas as formas de discriminação, inclusive a recusa de adaptação razoável […] (BRASIL, 2009, grifos nossos).

Essa definição aponta para o reconhecimento de um terceiro componente identificador da discriminação: o efeito, que pode ou não coincidir com a finalidade, como, inclusive, podemos observar a partir da redação da expressão “propósito ou efeito”.

Ademais, a definição legal apresentada conclui que a discriminação pode se dar a partir de uma recusa de adaptação razoável. Colocação que reconhece, em nosso ordenamento jurídico, a existência do direito à essa adaptação21. Nesse tópico, Corbo apresenta reflexões que podem ser transpostas para as problemáticas levantadas pelo presente estudo:

Esta teoria teve como principal característica o fato de ter se afastado da ideia de propósito discriminatório em favor da análise dos efeitos discriminatórios gerados por normas, medidas ou práticas. Seria possível, a partir deste novo arcabouço teórico, reconhecer a existência de discriminação, não como decorrência de um intuito discriminatório ou do uso expresso de critérios como raça, religião, gênero etc., mas, sim, em razão dos efeitos desproporcionalmente prejudiciais que uma norma ou prática gera sobre um determinado grupo protegido. (2018, p. 215, grifos nossos).

Cumpre mencionar que a mesma Convenção também trouxe em seu artigo 2º uma definição para a noção de adaptação razoável:

“Adaptação razoável” significa as modificações e os ajustes necessários e
adequados que não acarretem ônus desproporcional ou indevido, quando
requeridos em cada caso, a fim de assegurar que as pessoas com deficiência
possam gozar ou exercer, em igualdade de oportunidades com as demais pessoas,
todos os direitos humanos e liberdades fundamentais. (BRASIL, 2009).

Assim, a leitura conjunta das definições de discriminação e de adaptação razoável apresentadas pela Convenção demonstra qual é proposta do direito à adaptação razoável, entendido como um mecanismo jurídico que deve ser intentado para frear possíveis efeitos provenientes da discriminação indireta, os chamados impactos adversos22. O que não significa que sempre haverá a possibilidade de ajustar o caso concreto a ponto de se neutralizar a discriminação23.

É com isso em mente, inclusive, que Corbo desenvolveu uma metodologia para a apreciação de casos que envolvam discriminação indireta24 e, em última análise, para o aferimento da existência e dos contornos do direito à adaptação razoável no caso concreto:

Proponho, aqui, uma análise que se separa em três etapas: (1) a apresentação de um
caso prima facie de discriminação indireta; (2) a análise da justificação do ato, prática ou medida geradora da discriminação indireta; e (3) a análise quanto à existência e limites do direito à adaptação razoável no caso concreto. (2019, p. 224).

Com base nessa metodologia, atos promovidos por entes públicos ou privados se submeteriam a uma verificação da presença de elementos caracterizadores de discriminação indireta, notadamente: o emprego de critérios aparentemente neutros e a efetiva ou potencial decorrência de efeitos desproporcionais em desfavor de pessoas pertencentes a grupos minorizados.

Após a superação da primeira etapa, se realizaria a contraposição entre os efeitos discriminatórios verificados e a justificativa do ato e da lógica aplicada na escolha dos critérios utilizados. Essa contraposição se valeria de análise apoiada no princípio da proporcionalidade e com a superação desta, a metodologia seguiria para a sua terceira e última etapa.

Nessa fase final, se realizaria a análise de medidas que poderiam compatibilizar os interesses antagônicos de forma a mitigar ou superar os efeitos adversos da discriminação indireta. Nesse ponto é que se realiza a adaptação razoável propriamente dita, haja vista que a compatibilização entre interesses deverá levar em consideração a análise da razoabilidade e proporcionalidade entre as medidas propostas e os eventuais ônus que elas trazem à parte responsável pelo seu cumprimento.

Assim, a doutrina dos impactos adversos, o direito à adaptação razoável e a metodologia de sua aplicação parecem ser contribuições importantes do direito antidiscriminatório para a proteção de dados. Haja vista que essa matéria possui forte viés prognóstico e preventivo, com suas disposições sobre boas práticas, seus princípios e seus mecanismos de Privacy by Design e Relatórios de Impacto.

5.Conclusão

Ao longo do presente estudo, foi possível observar que a matéria de proteção de dados pessoais, em sua missão de proteção do livre desenvolvimento da personalidade, dos direitos humanos e da dignidade da pessoa humana, buscou abarcar a tutela da isonomia por meio de alguns dispositivos antidiscriminatórios no texto da Lei Geral de Proteção de Dados.

Ainda assim, foi verificado que tais dispositivos podem encontrar obstáculos quando expostos à complexidade das novas tecnologias operadas por uma economia orientada à exploração de dados pessoais, bem como quando aplicados a uma sociedade complexa no âmbito psicocultural, elucidada no terceiro tópico pela descrição das dinâmicas e origens sociais das formas de discriminação na contemporaneidade.

Esses obstáculos foram decompostos em: limitações da interpretação taxativa dos dados sensíveis; discriminação por associação; discriminação indireta; e discriminação inconsciente. Assim, o estudo prosseguiu com a análise da forma de estruturação, origens e consequências de cada um desses obstáculos, que podem, inclusive, estar interligados entre si, haja vista que uma relação social pode se desenvolver em diversas frentes discriminatórias.

A partir dessas análises, também foi observado que as problemáticas levantadas têm como ponto comum a insuficiência ou a inadequação das noções utilizadas para reconhecermos uma situação de discriminação, aqui definidas como o conteúdo do dado e a finalidade do tratamento. Com base nisso, algumas alternativas foram sinalizadas para o melhor uso desses critérios.

A primeira alternativa consiste na interpretação que Supremo Tribunal Federal adotou a respeito do conceito de racismo, o que resulta no abarcamento de discriminações referentes à identidade de gênero ou à orientação sexual em disposições legais que envolvem raça, como o rol de dados sensíveis da LGPD. Enquanto a segunda alternativa insere a matéria em leitura baseada na dogmática do direito civil-constitucional, que reconfigura a tutela aos direitos da personalidade de forma a adotar a cláusula geral de proteção da pessoa humana.

Também foi apontado, com base doutrina dos impactos adversos, outro critério para a identificação de uma situação discriminação, o efeito, que deve ser utilizado em conjunto com os critérios de finalidade de tratamento e com o conteúdo do dado. Por fim, foi apresentado o conceito de adaptação razoável como direito a ser almejado, mediante metodologia que pode ser inclusive prognóstica.

Todavia, a principal conclusão desse artigo consiste na constatação da necessidade de se entender que a matéria de proteção de dados pessoais deve ser lida de forma integrada às ciências que justamente buscam esquematizar as complexidades técnicas, econômicas e psicoculturais da atualidade, assim como ter a compreensão de seu lugar incorporado à ordem constitucional, que já possui uma lógica e um sistema para a tutela e a promoção da igualdade formal e material.

Referências

AZEVEDO, C. M. (1987). Onda negra medo branco: o negro do imaginário das elites, século XIX. Rio de Janeiro: Paz e Terra.

BAXI, U. (2002). The future of human rights. Oxford University Press, p. 1-10.

BENTO, M. A. S. (2002). Pactos narcísicos no racismo: branquitude e poder nas organizações empresariais e no poder público (Tese de Doutorado em Psicologia Escolar e do Desenvolvimento Humano, Instituto de Psicologia, Universidade de São Paulo, São Paulo, SP). Acesso em 29 de junho de 2021, disponível em: https://teses.usp.br/teses/disponiveis/47/47131/tde-18062019-181514/pt-br.php

BIONI, B. R. (2019). Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Gen.

BIONI, B. R., & ZANATTA, R. A. (2021). A infraestrutura jurídica da economia dos dados: dos princípios de justiça às leis de dados pessoais. p. 80-128. In: Bioni, B. R. (Org). Proteção de dados [livro eletrônico]: contexto, narrativas e elementos fundantes. São Paulo: B. R. Bioni Sociedade Individual de Advocacia. Acesso em 28 de novembro de 2021, disponível em: https://observatoriolgpd.com/wp-content/uploads/2021/08/1629122407livro-LGPD-Bruno-Bioni-completo-internet-v2.pdf#page=79

BRASIL. (1988). Constituição da República Federativa do Brasil, de 05 de outubro de 1988. Acesso em 09 de setembro de 2021, disponível em: https://www.planalto.gov.br/ccivil_03/Constituicao/Constituicao.htm

BRASIL. (2009). Decreto n. 6.949, de 25 de agosto de 2009. Promulga a Convenção Internacional sobre os Direitos das Pessoas com Deficiência e seu Protocolo Facultativo, assinados em Nova York, em 30 de março de 2007. Acesso em 29 de junho de 2021, disponível em: http://www.planalto.gov.br/ccivil_03/_Ato2007-2010/2009/Decreto/D6949.htm

BRASIL. (2015). Lei nº 13.146, de 6 de julho de 2015. Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). Acesso em 09 de setembro de 2021, disponível em: http://www.planalto.gov.br/CCIVIL_03/_Ato2015-2018/2015/Lei/L13146.htm

BRASIL. (2018). Lei n. 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Acesso em 29 de junho de 2021, disponível em: http://www.planalto.gov.br/ccivil_03/_Ato2007-2010/2009/Decreto/D6949.htm

BRASIL. (2003). Supremo Tribunal Federal. Habeas Corpus n. 82424. Relator: Min. Moreira Alves. Brasília, DF, 17 de setembro de 2003. Acesso em 29 de junho de 2021, disponível em: https://jurisprudencia.stf.jus.br/pages/search/sjur96610/false

BRASIL. (2019a). Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade por Omissão n. 26. Relator: Min. Celso De Mello. Brasília, DF, 13 de junho de 2019. Acesso em 29 de junho de 2021, disponível em: https://jurisprudencia.stf.jus.br/pages/search/sjur433180/false

BRASIL. (2019b). Supremo Tribunal Federal. Mandado de Injunção n. 4733. Relator: Min. Edson Fachin. Brasília, DF, 13 de junho de 2019. Acesso em 05 de julho de 2021, disponível em: https://jurisprudencia.stf.jus.br/pages/search/sjur432699/false

CORBO, W. (2018). O direito à adaptação razoável e a teoria da discriminação indireta: uma proposta metodológica. Revista da Faculdade de Direito da UERJ, (34), 201-239. Acesso em 29 de junho de 2021, disponível em: https://www.e-publicacoes.uerj.br/index.php/rfduerj/article/view/27257

DONEDA, D. (2019). Da privacidade à proteção de dados pessoais: fundamentos da Lei geral de proteção de dados. São Paulo: Thomson Reuters Brasil.

FANON, F. (2008). Pele negra, máscaras brancas (SILVEIRA, R., Trad.). Salvador: EDUFBA.

FICO, B. de S. D., SICUTO, G. H., & NÓBREGA, H. M. (2021). Lei geral de proteção de dados: identidade de gênero como dado sensível. Justificando, 16 de junho. Acesso em 29 de junho de 2021, disponível em: https://www.justificando.com/2020/06/16/leigeral-de-protecao-de-dados-para-lgbts-identidade-de-genero-como-dado-sensivel/

FIGUEIREDO, I. (2014). Por um olhar jurídico crítico em defesa dos direitos humanos: a partir da narrativa de uma conquista histórica, o Sistema Nacional de Combate e Prevenção à Tortura. p. 225-236 In: VAL, E. M. & BELLO, E. (Org.). O pensamento pós e descolonial no novo constitucionalismo latino-americano. Caxias do Sul: Educs. Acesso em 09 de setembro de 2021, disponível em: https://www.ucs.br/educs/livro/pensamento-pos-e-descolonial-no-novo-constitucionalismo-latino-americano/

GALLARDO H., et al (2019). Direitos humanos como movimento social: para uma compreensão popular das lutas por direitos humanos (CARNEIRO, F. O., Trad.). Rio de Janeiro: Faculdade Nacional de Direito.

GONZAGA, Y. (2015). Toda empresa será de tecnologia no futuro, diz presidente da Microsoft. Folha de São Paulo, 29 de novembro. Acesso em 28 de novembro de 2021, disponível em: https://m.folha.uol.com.br/tec/2015/09/1687952-toda-empresa-sera-de-tecnologia-no-futuro-diz-presidente-da-microsoft.shtml

GONZALEZ, L. (1988). A categoria político-cultural de amefricanidade. In: Tempo Brasileiro, Rio de Janeiro, 92/93, 69-82. Acesso em 28 de novembro de 2021, disponível em: https://institutoodara.org.br/public/gonzalez-lelia-a-categoria-politico-cultural-de-amefricanidade-tempo-brasileiro-rio-de-janeiro-v-92-n-93-p-69-82-jan-jun-1988b-p-69-82/

HAUPT, M. (2016). “Data is the New Oil” — A Ludicrous Proposition [Blog]. Acesso em 28 de novembro de 2021, disponível em: https://medium.com/project-2030/data-is-the-new-oil-a-ludicrous-proposition-1d91bba4f294#.vjyvcwnp0

MAYER-SCHOENBERGER, V. K., & CUKIER. (2013). Big Data: a Revolution That Will Transform How We Live, Work, and Think. Londres: John Murray Publishers.

MENDES, L. S., & MATTIUZZO, M. (2019). Discriminação algorítmica: conceito, fundamento legal e tipologia. Revista Direito Público, Porto Alegre, 16 (90), 39-64. Acesso em 28 de novembro de 2021, disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3766

MITTELSTADT, B. (2017). From individual to group privacy in big data analytics. Philosophy & Technology, 30, 475-494. Acesso em 29 de junho de 2021, disponível em: https://link.springer.com/article/10.1007/s13347-017-0253-7

MORAES, M. C. B. (2010). Ampliando os direitos da personalidade. In: Na medida da pessoa humana: estudos de direito civil-constitucional. Rio de Janeiro: Renovar. Acesso em 09 de setemebro de 2021, disponível em: https://www.researchgate.net/publication/288490662_Ampliando_os_direitos_da_personalidade

MOREIRA, A. J. (2020). Tratado de direito antidiscriminatório. São Paulo: Contracorrente.

MOROZOV, E. (2018). Big Tech: a ascensão dos dados e a morte da política. São Paulo: Ubu.

MUTUA, M. (2007). Standard setting in human rights: critique and prognosis. Human Rights Quarterly. 29(3), 547-630. Acesso em 09 de setemebro de 2021, disponível em: http://doi.org/10.1353/hrq.2007.0030

NASIO, J.-D. (1999). O prazer de ler Freud (MAGALHÃES, L., trad.). Rio de Janeiro: Zahar.

NEGRI, S. M. C. de Á., & KORKMAZ, M. R. D. C. R. (2019). A normatividade dos dados sensíveis da lei geral de proteção de dados: ampliação conceitual e proteção da pessoa humana. Revista de Direito, Governança e Novas Tecnologias, Goiânia, 5(1), 63-85. Acesso em 29 de junho de 2021, disponível em: https://indexlaw.org/index.php/revistadgnt/article/view/5479

O’NEIL, C. (2020). Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça à democracia. (ABRAHAM, R., Trad). Santo André: Rua do Sabão.

PERLINGIERI, P. (2002). Perfis do Direito Civil: Introdução ao direito civil constitucional. Rio de Janeiro: Renovar.

SANTOS, B. de S. (2006). As dores do pós-colonialismo. Folha de São Paulo, 21 de agosto. Acesso em 09 de setembro de 2021, disponível em: https://www1.folha.uol.com.br/fsp/opiniao/fz2108200608.htm

SCHUCMAN, L. V. (2016). Entre o encardido, o branco e o branquíssimo: branquitude, hierarquia e poder na cidade de São Paulo. São Paulo: Veneta.

UNIÃO EUROPEIA. Regulamento (EU) 2016/679 do Parlamento Europeu e do Conselho, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (2016, 27 de abril). Acesso em 28 de novembro de 2021, disponível em:  https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32016R0679

WACHTER, S. (2019). Affinity profiling and discrimination by association in online behavioural advertising. Berkeley Technology Law Journal, 35(2), 367-430. Acesso em 28 de novembro de 2021, disponível em: https://doi.org/10.15779/Z38JS9H82M

ZUBOFF, S. (2021). A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira de poder. (Schlesinger, G., Trad). Rio de Janeiro: Intrínseca.

Luiza Xavier Morales luiza.morales@uol.com.br

Pós-graduanda em Direito Digital pela UERJ e ITS-Rio, graduada em Direito pelo Mackenzie-SP, advogada, pesquisadora do Laboratório de Políticas Públicas e Internet (LAPIN).