Resumo
O reconhecimento facial baseado em algoritmos é uma realidade tanto no setor privado quanto no setor público. A despeito da ideia disseminada no senso comum sobre a neutralidade algorítmica, os algoritmos são dotados de viés, seja pelas escolhas que orientam seu funcionamento, seja pelos conjuntos de dados em que operam. A complexidade dos bancos de dados operados e a inescrutabilidade de alguns algoritmos têm tornado inauditáveis os processos decisórios realizados por essa tecnologia. Nesse contexto, determinadas populações tornam-se mais vulneráveis a discriminações. O artigo aborda a vulnerabilidade específica das pessoas transexuais, segmento populacional especialmente marcado pela tendência a modificações corporais, na busca pela construção da identidade social e do reconhecimento público do seu gênero – ou da ruptura com o conceito de gênero, no caso das pessoas não binárias. Essas complexidades tendem a não ser contempladas pela leitura simplista de realidade feita pelos algoritmos em suas atividades de classificação, levando a que as pessoas transgênero sejam identificadas como pertencentes a um gênero com o qual não se identificam, com base em supostas “médias” faciais atribuídas a cada gênero, ou mesmo a que não sejam reconhecidas como elas mesmas pelas comparações de imagem pré e pós transição de gênero. Além de perpetuar violação aos direitos de personalidade desse segmento populacional, a partir de suas falhas de classificação, em termos práticos, esses erros podem também conduzir à dificuldade de acesso à informação direcionada a um gênero específico, impedir a entrada em espaços como banheiros e vestiários e perpetuar discriminação e exclusão.
Introdução
A disseminação das tecnologias de reconhecimento facial e de biometria, em geral, são questões latentes na sociedade de vigilância, em que recursos tecnológicos são amplamente utilizados para capturar e armazenar informações, as mais diversas possíveis e para várias finalidades, tanto no setor público quanto no setor privado.
O objeto deste artigo é um tipo específico de tecnologia, o reconhecimento facial, cuja utilização tem crescido e cujas especificidades enquanto dado biométrico e sensível demandam atenção. São conhecidos os usos da tecnologia de reconhecimento facial para o controle de entrada em estabelecimentos privados, como academias, faculdades, escolas; para o monitoramento de espaços públicos, como aeroportos, ruas, estações de metrô; e para os mais diversos fins, desde campanhas publicitárias e estratégias de marketing em geral até programas de segurança pública adotados pelos governos.
Os dados biométricos possuem a especificidade de tenderem à uma permanência maior em relação a outros dados pessoais, pois não podem ser facilmente modificados; assim, sua utilização massiva e irrefletida representa um risco do ponto de vista da proteção de dados sensíveis e, consequentemente, dos dilemas éticos e riscos potenciais que os acompanham, dentre eles, o potencial discriminatório ilícito.
O artigo foca no potencial discriminatório da utilização do reconhecimento facial automatizado contra pessoas transexuais. Considerando a leitura simplista da realidade elaborada pelos algoritmos na execução de suas tarefas, no caso da classificação por gênero, até o momento os programas operam apenas a categoria de gêneros binária homem-mulher. A adoção dessa única chave de leitura de gênero, por si só, já é bastante limitada e acrescenta-se a isso os próprios parâmetros adotados pelos algoritmos para realizar as classificações, baseados na estipulação de padrões faciais gendrados para estipular métricas de um suposto rosto dito masculino ou feminino e no estilo de cabelo ou uso de acessórios, por exemplo.
As falhas algorítmicas na classificação de pessoas transexuais podem ocorrer tanto atribuindo-lhes gênero diferente daquele com o qual se identificam, quanto falhando no reconhecimento da própria pessoa ao comparar imagens pré e pós transição. São hipóteses de não reconhecimento ou reconhecimento insuficiente da identidade pessoal que violam os direitos de personalidade, notadamente o direito à identidade, e possibilitam situações vexatórias e exclusões, como proibição de entrada em espaços destinados a um gênero específico ou acesso a informações e benefícios, além da hipótese de vigilância e controle, perpetuando toda sorte de práticas discriminatórias.
A primeira parte do artigo se propõe a descrever brevemente como funcionam as tecnologias de reconhecimento facial, a importância dos bancos de dados e dos algoritmos, sobretudo, para esclarecer noções pré-concebidas sobre a suposta neutralidade e inescrutabilidade desses resultados da inteligência artificial, demonstrando o potencial discriminatório que encerram.
A segunda parte traça um panorama dos direitos sob a perspectiva transexual, demonstrando sua vulnerabilidade social e elencando as conquistas obtidas no sentido da efetivação do direito à identidade.
A terceira parte enfrenta as implicações do reconhecimento facial diante das especificidades das pessoas transexuais, baseada no desempenho discriminatório já demonstrado dessas tecnologias diante de critérios de raça e gênero e nas noções de caracteres faciais gendrados e de passabilidade. São indicadas algumas hipóteses de violação de direitos de personalidade, como direito à identidade, ao corpo, à intimidade, à vida privada, à honra e à imagem decorrentes das falhas no reconhecimento, bem como situações cotidianas práticas em que os resultados da inteligência artificial podem ser invocados para obstar direitos e perpetuar discriminações contra essa população.
Por fim, considerando algumas aplicações do reconhecimento facial já implantadas pela Administração Pública no Brasil, são apontadas as possíveis bases legais para o tratamento desses dados sensíveis pela Administração e o vazio normativo específico sobre as tecnologias de reconhecimento facial e sobre a proteção de dados em geral na esfera da segurança pública.
1.Tecnologias de reconhecimento facial e algoritmos
1.1.O que é a tecnologia de reconhecimento facial
O reconhecimento facial é uma tecnologia biométrica para identificação dos indivíduos, ou seja, opera através da coleta e do reconhecimento automatizado de características biológicas e comportamentais mensuráveis, como altura, tamanho da mão, digitais, retina ou íris, voz e forma de andar (Decreto n. 10.046, 2019). No caso específico do reconhecimento facial, são parâmetros importantes: traços do rosto, formato do maxilar e do nariz, medidas da arcada dentária, distância entre os olhos, manchas, rugas, linhas de expressão, cor da pele e dos olhos, em alguns casos a forma do cabelo (curto, comprido, liso, enrolado, crespo) e o uso ou não de maquiagem, tatuagem e acessórios (como brincos, óculos, chapéus, máscaras).
Em geral, as tecnologias de reconhecimento facial operam “por meio de dois passos: (I) registro (enrollment) e (II) correspondência ou reconhecimento (matching). Essas fases podem ser divididas em quatro passos: captura, desconstrução, armazenamento e comparação, a depender da finalidade para a qual a tecnologia será utilizada” (Teffe & Fernandes, 2020, pp. 295-296).
A captura significa a coleta de imagens, seja de forma direta pelo uso de câmeras ou seja de forma indireta pela aquisição em bancos de imagens; a desconstrução é o processo de varredura das imagens capturadas, em busca das sobreditas características relevantes para a identificação de um padrão facial; o armazenamento corresponde à guarda das imagens e dos dados obtidos através do seu tratamento no processo anterior de desconstrução; e, por fim, a comparação consiste na análise automatizada das imagens, confrontando diferenças, semelhanças e padrões em busca do resultado provável para as respectivas finalidades (Teffe & Fernandes, 2020).
A despeito da finalidade precípua de identificação dos indivíduos, as tecnologias de reconhecimento facial podem operar também com fins de classificação de acordo com critérios pré-definidos, como idade, expressão facial, raça e gênero.
As aplicações são as mais diversas possíveis, desde atividades corriqueiras como o desbloqueio de aparelhos eletrônicos; verificação de identidade para controle de entrada em estabelecimentos privados, como academias, faculdades, escolas – e, mais recentemente, durante a pandemia de Covid-19, também a aferição de temperatura para a entrada em estabelecimentos – ; monitoramento de espaços públicos, como aeroportos, ruas e estações de metrô; e para os mais diversos fins, desde campanhas publicitárias e ações de marketing até programas de segurança pública. Nas palavras de Rodotà (2004) “o corpo em si está se tornando uma senha”.
Considerando que as primeiras fases para o funcionamento das tecnologias de reconhecimento facial abrangem a coleta e tratamento dos dados que subsidiarão o trabalho dos algoritmos na última etapa de busca por padrões, que indicarão em ordem de probabilidade o resultado esperado, desde logo, é importante desmistificar algumas crenças sobre os algoritmos.
1.2.Como funcionam os algoritmos
Os algoritmos são modelos matemáticos que automatizam tarefas a partir da operação de cálculos probabilísticos para indicação dos resultados que foram programados a buscar, obtidos pela comparação dos cenários possíveis obtidos com base nas informações disponíveis em seus respectivos bancos de dados. Como todo modelo, sua criação passa pela simplificação da realidade em um contexto específico, para que as operações aconteçam numa espécie de versão reduzida do todo, de fácil compreensão (do ponto de vista dos algoritmos), contendo apenas os fatores mais relevantes para a execução da tarefa e deixando de lado alguns pontos cegos (O’Neil, 2016).
Assim, os algoritmos não criam as probabilidades do zero, mas antes, calculam essas probabilidades de acordo com os dados previamente armazenados em seus sistemas. Nota-se, então, a relevância dos critérios utilizados na formação desses sistemas para a indicação do resultado da operação. O que é importante e o que é irrelevante? O que vai aparecer e o que vai ficar de fora? Qual a proporção entre as informações disponíveis? Quais serão os padrões indicados para análise dos dados? Todas as variáveis possíveis no processo de planejamento para a simplificação do todo, objetivando sua redução num sistema, passam por processos decisórios dos programadores e desenvolvedores e dos modelos matemáticos de algoritmos. As escolhas realizadas podem ser mais ou menos conscientes e mais ou menos formais, a depender de cada caso; todavia, reconhecer a existência dessas escolhas nas fases de planejamento e programação é essencial para começar a desconstruir o imaginário comum do algoritmo neutro.
Essa crença da neutralidade algorítmica, em parte, pode ser explicada por um aparente paradoxo: de um lado, os algoritmos pressupõem um alto grau de simplificação do mundo real, passando por vários pontos cegos na sua busca por padrões; de outro lado, seu funcionamento está se tornando cada vez mais complexo, alimentado por grandes bases de dados na era do big data1 e do machine learning2, com processos que têm se distanciado dos limites inteligíveis às capacidades humanas. Acrescenta-se a isso a utilização cada vez mais frequente dos algoritmos para processos decisórios e análises de teor subjetivo em geral, que alimentam a percepção ilusória de onisciência e de onipotência dos modelos matemáticos.
A dificuldade em compreender o caminho exato percorrido por um algoritmo para processar as informações e calcular diferentes cenários, em geral, conduz as pessoas a um estado passivo de recepção aparentemente acrítica das conclusões da máquina, tendente a ignorar as limitações do modelo. Frazão (2021), sobre o uso da linguagem matemática para analisar assuntos humanos e sociais, afirma que
é um erro supervalorizar o papel da matemática, pois esta é apenas uma ferramenta cujo uso depende crucialmente das premissas e dos pressupostos que justificaram a sua utilização. Outro problema apontado pelos autores [Hartmann e Sprenger] é que, para refletir a complexidade do mundo social, tais formulações matemáticas, especialmente quando elaboradas com poderosos computadores, podem resultar em modelos tão complexos que, ainda que se adequem à realidade empírica, tornam-se incompreensíveis. (Frazão, 2021).
O problema da incompreensão generalizada dos algoritmos tem sido inclusive objeto de discussões judiciais, que buscam superar a barreira do segredo de negócios para auditar o funcionamento de determinados aplicativos, como o Uber e a 99 Taxis, cuja compreensão tem se mostrado importante para a instrução processual.3 Essa pretensa inescrutabilidade dos algoritmos se torna um problema ao assumirmos que nem sempre as escolhas realizadas nas fases de planejamento e programação do modelo conduzem ao melhor desempenho possível, pois assim, seria impossível entender a cadeia dos fatores de análise e de comparação que o algoritmo percorre até chegar à indicação do resultado.
Por isso, alguns pesquisadores têm estabelecido relação entre a “falta de transparência dos sistemas algorítmicos e processos discriminatórios de pessoas e segmentos da população quando submetidos à governança praticada pelos algoritmos” (Silveira & Silva, 2020); segundo eles, a inescrutabilidade da inteligência artificial tem permitido que as decisões discriminatórias a que os programas chegam não sejam vinculadas à obrigação de prestar contas, motivar e explicar os processos decisórios que conduzem.
1.3.Discriminação algorítmica no reconhecimento facial
O viés dos algoritmos existe porque sua criação passa por escolhas que refletem uma visão de mundo específica. Não se pode pressupor que as decisões automatizadas resolvam a questão da imparcialidade humana; em alguns casos, a tecnologia apenas camufla a questão (O’Neil, 2016), envolvendo-a numa pretensa roupagem de neutralidade e objetividade.
O potencial discriminatório, muitas vezes, pode ser encarado como intrínseco aos próprios pressupostos de funcionamento dos algoritmos, já que “por serem feitos para assimilar modelos de comportamento, os algoritmos também podem replicar atitudes que reforçam ideias pré-concebidas, ou seja, absorvem, reproduzem e, como resultado, robustecem a estrutura de discriminação e a intolerância nas mais variadas formas” (Bettega, 2021).4
No caso do reconhecimento facial, os algoritmos operam sobre dados sensíveis, definidos justamente pelo potencial discriminatório que encerram em si e que, portanto, gozam de proteção específica e se sujeitam a condições de tratamento diferenciadas pela lei.5 Entre os dados sensíveis, os dados biométricos são objeto de atenção especial, pois possuem a particularidade de tenderem à permanência, já que são atrelados às características biológicas dos indivíduos. As especificidades da permanência e singularidade dos dados biológicos conduzem a outro paradoxo relacionado ao uso da biometria para identificação e classificação de pessoas: ao mesmo tempo que esses dados tendem a aumentar a segurança e a eficácia dos procedimentos, tendem também a vulnerabilizar a proteção de dados e de direitos fundamentais dos titulares, a depender da forma como são utilizados, considerando precisamente sua dificuldade de modificação e os riscos potenciais do tratamento de dados dessa natureza.
Estudo recente das pesquisadoras da Algorithmic Justice League ganhou notoriedade ao divulgar o viés racial e de gênero nos algoritmos de reconhecimento facial de empresas como Google, IBM, Microsoft e Face++, evidenciando que essas ferramentas se baseiam em algoritmos formados por dados rotulados (Buolamwini & Gebru, 2018). A pesquisa demonstrou uma disparidade de até 34,4% na acurácia dos programas para identificar rostos de mulheres negras em oposição aos rostos de homens brancos (Buolamwini & Gebru, 2018), indicando a hipótese de sub-representatividade nos bancos de imagens como a causa provável da assimetria no desempenho dos programas.
Especificamente no tocante à classificação facial de gênero, a citada pesquisa faz a ressalva de que uma análise dessa performance, atualmente, requer a redução do espectro de gênero em classificações pré-definidas. No caso, todas as empresas analisadas utilizaram apenas os rótulos “masculino” e “feminino” para a classificação de gênero, a partir de parâmetros baseados em um sistema de rótulos binários. A pesquisa ressalva que essa visão reducionista não capta adequadamente as complexidades em matéria de gênero; tampouco atende às identidades transgênero. Ainda, chama a atenção para o fato de que as empresas pesquisadas não disponibilizam nenhum documento que indique se seus sistemas de classificação de gênero que rotulam “masculino” ou “feminino” estão classificando a partir da identidade de gênero ou do sexo biológico (Buolamwini & Gebru, 2018), o que pode se mostrar especialmente discriminatório para as identidades trans e não binárias.
A falta de clareza sequer quanto aos critérios adotados para a classificação de gênero pelas tecnologias de reconhecimento facial traz à tona outra questão relevante: diversificar os bancos de imagens soluciona o problema da discriminação algorítmica? Ao retomar a noção do viés por trás das escolhas que conduzem a própria análise feita pelos modelos algorítmicos sobre seus bancos de dados, fica evidente que essa medida, isoladamente, é insuficiente para sanar a questão. Até mesmo porque alguns sistemas são desenvolvidos exatamente com a tarefa de identificar pessoas específicas ou buscar determinados segmentos populacionais e classificar com base em critérios pré-estabelecidos, como o gênero, idade, raça e outros dados sensíveis.
O pesquisador Keyes (2021) assim definiu a problemática da questão “identificar o gênero de alguém olhando para uma pessoa e não falando com ela é como perguntar qual o sabor do cheiro do azul”6, ou seja, a questão não é nem tanto o erro ou o acerto da resposta, mas sim entender que a pergunta em si não faz nenhum sentido. A conformação física é apenas um dos marcadores de gênero e não o único, e os algoritmos de reconhecimento facial, no estágio em que estão hoje, ainda não estão aptos a dar um passo além da aparência como fator determinante para indicação de gênero.
A União Europeia, inclusive, já conta com um movimento que intenta o banimento do reconhecimento automatizado de gênero e de orientação sexual, visando a proteção desses dados sensíveis e da população LGBTQ+, vulnerável à discriminação sob esse aspecto.7
Para melhor compreensão do debate, em toda sua complexidade, é pertinente dedicar atenção também à questão das identidades trans, de forma mais ampla, assentando algumas premissas e propondo reflexões sobre alguns pontos.
2.Identidade transexual e direitos
2.1.Panorama da vulnerabilidade
Entende-se por transexualidade a não conformidade entre o sexo biológico designado no nascimento do indivíduo e a identidade de gênero adotada no decorrer do seu desenvolvimento. Considerando que a ruptura proposta pela identidade transexual é justamente superar o binarismo de gênero baseado simplesmente no sexo biológico, neste artigo os termos transexual, transgênero e trans serão utilizados para designar de forma abrangente homens e mulheres transexuais, travestis, pessoas intersexo e não binárias. Objetivando abarcar um espectro amplo de identidades de gênero que são alvos potenciais de discriminação, não somente pela utilização das tecnologias de reconhecimento facial, mas também em atividades rotineiras em seu cotidiano.
Há uma escassez de dados oficiais sobre a população transexual no Brasil, o que reforça a hipótese de discriminação, seja pela falta de interesse na produção desses dados ou pelas subnotificações produzidas pelos dados derivados do registro civil – que não reflete necessariamente a identidade de gênero das pessoas trans. Na tentativa de contribuir para o fomento do debate de políticas públicas, a Associação Nacional de Travestis e Transexuais – ANTRA produz anualmente o Dossiê da Violência e do Assassinato Contra Pessoas Trans Brasileiras. Em 2020, identificou-se o assassinato de pelo menos 175 travestis e mulheres transexuais: é como se uma pessoa trans fosse assassinada a cada 48 horas, um número 43,5% superior à média de assassinatos de pessoas trans em números absolutos desde 2008, mantendo o Brasil na primeira posição no ranking mundial de assassinatos de pessoas trans (Benevides & Nogueira, 2021).
A ANTRA aponta o ciclo de exclusões e violências, que muitas vezes se inicia na rejeição familiar em tenra idade, passa pelos obstáculos para a permanência escolar e pelo acesso dificultado ao mercado de trabalho formal e às instituições, como o principal fator para a precarização e vulnerabilização das vidas trans. Essas identidades são marginalizadas, invisibilizadas e sofrem cotidianamente diversas violações de direitos fundamentais, que podem culminar na morte violenta e/ou precoce.8
Além disso, há ainda os discursos patologizantes das suas identidades, que aumentam o estigma sobre os indivíduos e fomentam discriminações e restrições de acesso aos corpos desviantes dos padrões impostos para a performance da identidade transexual.9
2.2.Conquistas no direito à identidade
De outro lado, através do esforço dos movimentos sociais de pessoas trans, importantes conquistas aconteceram nos últimos anos, como (i) a ampliação do uso do nome social pelas instituições e serviços;10 (ii) instituição do processo transexualizador no SUS (Portaria GM nº 1707, 2008) para a realização de hormonioterapia, cirurgias e acompanhamento multidisciplinar; (iii) exclusão do CID do “transtorno de identidade sexual/de gênero” da lista de doenças e distúrbios mentais pela OMS, em 2018;11 e (iv) no mesmo ano, através do julgamento da ADI 4275, a possibilidade de retificação do nome e sexo no registro civil pela via administrativa, ao invés de por determinação judicial, independente da realização ou não de cirurgia de redesignação sexual.
Essas conquistas são a afirmação dos direitos à autodeterminação e à identidade, construídos a partir dos direitos de personalidade, como o direito ao nome, à intimidade, à vida privada e à imagem, em oposição a uma lógica de patologização e medicalização que fundamenta ferramentas de controle social dos corpos e determina padrões de normalidade (Pinto, Santos, Vargens & Araújo, 2017), abordagem predominante há alguns anos.
A identidade não se limita aos dados biológicos ou a outros dados de identificação, mas antes, reúne o conjunto das diversas características materiais e imateriais que individualizam uma pessoa e formam seu autorreconhecimento. O direito à identidade pessoal é intrinsecamente ligado ao reconhecimento desta identidade pelo outro; quando este reconhecimento inexiste ou é insuficiente, é a própria dignidade da pessoa humana que está em jogo, pois, a imagem, a autonomia, o bem-estar, as relações sociais e a autopercepção dependem em grande medida do olhar do outro e do reconhecimento do indivíduo por esse outro (Konder, 2018). Ou seja, o direito à identidade passa pelo reconhecimento que os outros sujeitos atestam à essa identidade, a partir da validação dos elementos que constroem a identidade de um indivíduo e o tornam, simultaneamente, autêntico e pertencente a determinados nichos sociais.
Nesse sentido se orientam as premissas do voto do Ministro Edson Fachin no julgamento da já mencionada ADI 4275:
[a] identidade de gênero é manifestação da própria personalidade da pessoa humana e, como tal, cabe ao Estado apenas o papel de reconhecê-la, nunca de constituí-la (…) A pessoa não deve provar o que é e o Estado não deve condicionar a expressão da identidade a qualquer tipo de modelo, ainda que meramente procedimental. (Supremo Tribunal Federal. ADI 4275)
Mais do que se abster de condicionar a expressão da identidade e de reconhecê-la, atendendo à autodeterminação dos indivíduos, é papel do Estado agir ativamente para reprimir lesões à identidade pessoal e para promover a todos o direito à construção autêntica, ao exercício livre e ao reconhecimento das respectivas identidades (Konder, 2018).
Tamanha é a importância do reconhecimento da identidade do indivíduo pelos pares, que a ausência ou defeito nesse reconhecimento colocam em questão nada menos do que a dignidade da pessoa humana (Konder, 2018), o pilar do nosso ordenamento jurídico. É pertinente, portanto, refletir sobre os impactos de delegar o reconhecimento da identidade de gênero a processos automatizados, realizados por modelos matemáticos, muitas vezes inescrutáveis, quando nem mesmo o Estado está autorizado a fazê-lo.
3.Reconhecimento facial em pessoas transexuais
3.1.Classificação de gênero por meio do reconhecimento facial
São escassas as produções de dados sobre pessoas trans, como já dito, e no caso do reconhecimento facial, não é diferente. Embora pesquisa recente da Codin Rights tenha feito valiosa contribuição nessa área, que será oportunamente tratada adiante, ainda não há dados empíricos sobre o desempenho das tecnologias de reconhecimento facial em pessoas transexuais. Por isso, os dados sobre o desempenho dessas tecnologias na classificação de gênero binária homem-mulher serão adotados como parâmetro para as considerações sobre os impactos do reconhecimento facial aplicáveis às especificidades das pessoas trans.
A já referida pesquisa Gender Shades, da Algorithmic Justice League, identificou que, a despeito do desempenho superior dos programas de reconhecimento facial na identificação de homens, as taxas de erros nas classificações de mulheres são muito menores do que nas dos homens, alcançando 8,1% de falsos positivos para mulheres e 20,6% de falsos positivos para homens (Buolamwini & Gebru, 2018). Isso significa dizer que, quando um rosto é identificado como feminino, há maior probabilidade de o diagnóstico estar correto do que quando este identifica um rosto masculino.
No mesmo sentido, a conclusão da pesquisa pioneira What gives a face its gender, realizada em 1993, com o propósito de conferir cientificidade às cirurgias de feminização facial, através do desmembramento das características de rostos ditos masculinos e femininos em uma série de fotografias, intentando estabelecer uma média de rosto possível de ser atribuída a cada gênero:
Ainda que reconheçam que “sujeitos do sexo masculino exigiam mais masculinidade para classificar uma face como masculina do que sujeitos do sexo feminino fizeram e, consequentemente, menos feminilidade para classificá-la como feminina” (Brown & Perrett, 1993, p. 837) e que os resultados tenham apontado que a imagem do rosto como um todo é de grande importância para a percepção de seu gênero, o que tais autores promovem é uma generificação de caracteres isolados, talvez sugerindo-lhes uma configuração biológica diversa para aquilo que identificaríamos como do masculino ou feminino. Parece haver um esforço para que aquele órgão/caractere contenha em si o gênero da pessoa que o porta, o que exclui toda e qualquer construção social e cultural daquilo que nos identifica como masculinos e/ou femininos e sua consequente percepção social. (Silva, 2018).
Pensando nos estereótipos de gênero, há um paralelo possível entre essas indicações e o fato de as pessoas transgênero serem frequentemente rotuladas genericamente como mulheres seja porque (i) as identidades dos homens transgêneros são invalidadas por uma leitura de que o sexo biológico é preponderante e, portanto, são lidos como “mulheres masculinizadas” ou porque (ii) na via diametralmente oposta, atribui-se menor importância ao sexo biológico das mulheres transgênero ou travestis, a partir do momento que elas ousam romper os estereótipos de gênero e performar com seus corpos algum grau de feminilidade, passando a ser lidas como mulheres, ainda que “incompletas” (Bento, 2004). Essa rotulação genérica tendente ao feminino também pode ser explicada pela “conexão entre mulher e sexualidade, e a identificação do sexual com o corpo feminino, tão difundidas na cultura ocidental, [que] já há muito vem sendo uma das preocupações centrais da crítica feminista” (Lauretis, 1987).
No caso dos transexuais, a questão do corpo e suas transformações é sensível e costuma ser permeada por modificações ao longo do tempo, através de hormonioterapias e intervenções corporais diversas, em geral cirúrgicas. O rosto, inclusive, possui cirurgias específicas voltadas à feminização, no caso de transexuais femininas, com a remoção do pomo de adão, intervenções na mandíbula, na testa e nariz. O que demonstra que, a despeito do estereótipo do transexual genitalizado, as experiências de produção e reprodução do gênero se dão nos mais diversos níveis (Lauretis, 1987), incluindo a existência de caráteres faciais socialmente gendrados.
O rosto, ademais, assume especial relevância por ser constantemente exposto e imediatamente identificável no meio social, ao contrário de outras partes do corpo que não são exibidas publicamente e podem ser camufladas e moldadas pelas roupas e outras tecnologias. Por isso, a modificação facial alinha-se ao desejo de algumas pessoas trans por passabilidade nos espaços públicos. Trata-se de uma busca por equiparar a leitura social sobre um rosto socialmente lido como pertencente a um gênero oposto à leitura social de gênero que se faz sobre o corpo construído pela pessoa trans (Silva, 2018), uma vez que
[t]ravestidos de reconhecimento, os discursos de legitimação e as políticas que deles decorrem vão se impondo, dessa forma, mais como prática de controle e tática de invisibilidade do que de alteridade. Quanto menos “trans” ele for, quanto menos circular entre o feminino e o masculino, quanto mais fixar sua identidade de gênero ao sexo biológico mais poderá passar, seguramente, como um de nós. (Geisler, 2017).
Nesse sentido, o desejo por passabilidade pode ser relacionado à leitura de privacidade de Rodotà (2008) como “o direito de manter o controle sobre as próprias informações”, conexo à autodeterminação informativa; nesse caso, diz respeito ao direito da pessoa de não ser identificada imediatamente como trans ao andar na rua e estabelecer diálogos corriqueiros ao acessar serviços, por exemplo, evitando constrangimentos, discriminações e riscos a que estão sujeitas cotidianamente essas pessoas nos espaços públicos.
Ocorre que nem todas as pessoas trans possuem interesse e/ou condições de passar por esses procedimentos de modificação corporal e, como consequência, se vêm ainda mais marginalizadas ao não se submeterem às intervenções médicas e jurídicas que, na prática, funcionam como mecanismos de controle sobre seus corpos e de legitimação de suas identidades. Assim sintetizou Barboza (2010):
O transexual se submete à docilização: seu corpo é analisado e manipulado, para ser transformado e aperfeiçoado. É preciso adaptá-lo aos requisitos do sistema sexo-gênero, o quanto possível. Mas, em dado momento, o transexual se opõe à docilização, mostra condições de funcionamento próprias, quer exercer sua autonomia. O transexual se afasta da regra, entra literalmente no campo indefinido do não-conforme, torna-se um anormal. É preciso punir este desvio, normalizá-lo.
O desvio do transexual é grave, em consequência, ele é duplamente punido. Sofre todas as “pequenas” sanções disciplinares, que se traduzem nas penas impostas pela sociedade, em todos os lugares alcançados pelo poder disciplinar; são penas variadas, desde constrangimentos, humilhações até uma severa discriminação que o confina em um dos muitos guetos destinados aos anormais.12
Permitir que os corpos desviantes sejam assim punidos equivale a admitir discriminações indevidas e condicionar direitos fundamentais a processos de conformação da identidade pessoal, sejam eles mais ou menos institucionalizados. Evidentemente, uma contrariedade à própria noção de direitos fundamentais é uma violação por si só.
Além da potencial violação ao direito de identidade e outros direitos de personalidade correlatos, como o direito ao próprio corpo, à imagem, à honra e à vida privada, na prática, vislumbram-se ainda situações concretas da utilização de reconhecimento facial para classificação de gênero que podem expor as pessoas transexuais a situações vexatórias e a lesões de direitos.
A falha na classificação ou falsas indicações podem, por exemplo, impedir a entrada de pessoas trans em espaços físicos, como banheiros e vestiários destinados a determinado gênero, ou dificultar seu acesso a serviços em geral, como informações, propagandas ou benefícios direcionados a um gênero específico ou mesmo a serviços bancários e benefícios governamentais de titularidade da própria pessoa que porventura não seja reconhecida pelo algoritmo. Essas situações ocorrem não só pela falta de reconhecimento das identidades transgêneras e não binárias pelos sistemas automatizados, como também pelas possíveis falhas na identificação do indivíduo obtidas pela comparação de suas próprias imagens pré e pós transição de gênero eventualmente armazenadas nos bancos de dados, considerando as sucessivas modificações corporais pelas quais as pessoas trans tendem a passar.
3.2.Vigilância das identidades trans pela Administração Pública
A Coding Rights, em publicação recente, tratou do reconhecimento facial no setor público do Brasil, sob a perspectiva das pessoas transexuais, e alertou para o potencial de “marcador” e de “reafirmação” que essas tecnologias de classificação algorítmica de corpos e gêneros representam. No setor público ainda há o agravante, muitas vezes, da compulsoriedade, ou seja, não há como se esquivar da coleta de dados para acessar determinados serviços, sob pena de renúncia ao exercício da própria cidadania. Segundo o levantamento realizado pelas pesquisadoras, atualmente, já utilizam o reconhecimento facial (i) o Serviço Federal de Processamento de Dados (SERPRO), empresa pública responsável pelos softwares de serviços como o Datavalid, Biovalid, CDT, CPF Digital, Acesso Gov BR, ID Estudantil e Embarque Seguro; (ii) o Registro Nacional de Carteira de Habilitação (RENACH), que inclui dados até mesmo de candidatos ao processo de habilitação de motoristas em todo o país; (iii) o INSS, com um projeto piloto para prova de vida por meio de aplicativo digital; (iv) o Bilhete Único no transporte público; e (v) o Embarque Seguro, em ao menos 15 aeroportos do país, que pretende substituir aos poucos a apresentação de documentos pelos passageiros nas viagens aéreas (Silva & Varon, 2021).
Além destas hipóteses de utilização do reconhecimento facial pela esfera federal, alguns municípios também têm adotado de forma independente essas tecnologias, em geral, para fins de segurança pública, mas também para programas de assistência social, transporte urbano e até controle de frequência escolar.13 Recentemente, o Projeto de Lei n. 865/2019, que dispõe sobre a instalação de tecnologia de reconhecimento facial nas estações da Linha 4 – Amarela do Metrô e da CPTM em São Paulo14 e o anteprojeto de lei da “LGPD Penal”15 também causaram comoção pública, indicando que o Brasil caminha na contramão de outros países16 que têm banido o reconhecimento facial como ferramenta de vigilância, determinado períodos de moratória para implantação da tecnologia, ou ao menos traçado diretrizes mais rígidas para sua utilização.
Relatório produzido pelo Laboratório de Políticas Públicas e Internet – LAPIN endereçou as seguintes questões sobre o uso de reconhecimento facial pela Administração Pública no Brasil (Reis, Almeida, Silva & Dourado, 2021): (i) inexiste regulação específica sobre o uso da tecnologia de reconhecimento facial, que tem operado com base em normas gerais, como a Constituição e a LGPD, embora isso seja altamente invasivo e arriscado do ponto de vista de violações de direitos fundamentais e de discriminações; (ii) as tecnologias, em sua maioria, são importadas e adquiridas por meio de estratégias agressivas de negociação, que limitam a competição no mercado, geralmente, pela celebração de acordos de cooperação ou de doação de equipamentos eletrônicos para emular grandes laboratórios de testes e até mesmo assegurar condições vantajosas para renovação dos contratos com as mesmas empresas; (iii) há uma assimetria informacional entre as autoridades públicas e os operadores locais da tecnologia em relação às empresas fornecedoras, dificultando a imposição de restrições pela Administração Pública quanto ao tratamento e compartilhamento de dados com o setor privado e, além disso, não há nos contratos previsão de transferência de conhecimento ao ente contratante; (iv) de forma geral, não são elaborados relatórios de impacto da adoção dessas tecnologias à proteção de dados pessoais, para medir objetivamente os respectivos índices de eficácia e de riscos; e (v) deficiência de mecanismos de prestação de contas aos titulares dos dados e baixa transparência.
As formas de vigilância massiva, em geral, representam potencial de violação às liberdades e direitos fundamentais e tendem a afetar desproporcionalmente segmentos vulneráveis da população, como as pessoas trans. Para além dessas preocupações comuns a todos os titulares num cenário de utilização massiva de tecnologias de reconhecimento facial, o caso das pessoas trans comporta ainda outra preocupação relevante, que é a instauração de um estado de vigilância, considerando as já mencionadas vulnerabilidades dessa população, que a coloca na situação de “visibilidades suspeitas” (Silva & Varon, 2021). Significa dizer que as tecnologias de vigilância são passíveis de serem instrumentalizadas para reprodução de estruturas de poder consolidadas, calcadas em normativas sobre corpo, gênero, sexualidade e outras expressões de identidade, que identificam, rastreiam e excluem determinados segmentos como ameaças.
Nas entrevistas conduzidas pela Coding Rights com pessoas transexuais já constam relatos de bloqueio indevido de Bilhete Único e de discriminação indevida em aeroportos; assim, conclui-se que
embora essas novas tecnologias biométricas e sociais possam contribuir para um “alargamento” da visibilidade e do reconhecimento das identidades de gênero não hegemônicas, elas podem, na verdade, contribuir drasticamente para o acionamento do estado de vigilância e para formas mais apuradas ou sofisticadas de rastreamento, medição e controle dos corpos e identidades trans. (Silva & Varon, 2021).
3.3.Lei Geral de Proteção de Dados e reconhecimento facial
A utilização massiva do reconhecimento facial também ameaça às disposições da Lei Geral de Proteção de Dados, no que diz respeito ao consentimento, à transparência, à autodeterminação informativa e ao direito de revisão, por exemplo, com o agravante de tratar de dados sensíveis.
O consentimento enquanto base legal de tratamento de dados sensíveis, como a biometria, atualmente, pode ser excepcionado pela Administração Pública para atender a fins de execução de políticas públicas (art. 11, II, b), evidentemente, bastante genérico e abrangente. Também há autorização genérica para não aplicação da LGPD ao tratamento de dados para fins de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais (art. 4º, III), ambas finalidades que atuam na chave da segurança pública.
A exceção da segurança pública pode ser alegada nos casos de vigilância de espaços públicos, de identificação de suspeitos e de combate de fraudes de identidade17, por exemplo. A propósito das pessoas trans, os casos de fraude de identidade são outro ponto sensível, pois, seja pelo descompasso entre o sexo biológico e o gênero, entre o nome social e os documentos, entre a imagem socialmente construída e os registros oficiais e, agora até mesmo pela incongruência entre os registros de imagens de uma mesma pessoa pré e pós transição de gênero disponíveis nos bancos de dados. Essas pessoas se veem cotidianamente tendo que provar ser quem são – seja em instituições bancárias, hospitais, instituições de ensino ou no uso de aplicativos digitais -, e as situações de ter que explicar o descompasso entre o nome anteriormente designado e o nome atual ou social, e mesmo a modificação da aparência ocorrida, são constantemente relatadas por pessoas trans e, se algumas pessoas cis têm se mostrado mais atentas e sensíveis à essa realidade, o mesmo ainda não pode ser dito sobre os algoritmos.
Ressalvadas as devidas críticas quanto à proporcionalidade e adequação das medidas de utilização dessas tecnologias, fato é que, atualmente, além da supramencionada deficiência de relatórios de desempenho e de transparência e da inexistência de normativas específicas que disciplinem o uso do reconhecimento facial no país, há ainda a lacuna normativa sobre proteção de dados, no âmbito da segurança pública, de forma geral.
Já quanto aos deveres de transparência, autodeterminação e revisão, a ausência de domínio técnico sobre o funcionamento dos modelos de reconhecimento facial, sem previsão da transferência de conhecimento, além da inescrutabilidade dos processos decisórios operados pelos algoritmos, tendem a se apresentar como obstáculos ao exercício destes direitos pelos titulares dos dados.
4.Conclusão
As tecnologias de reconhecimento facial são uma realidade e seu uso tem se difundido tanto no setor público quanto no privado, com as mais diversas finalidades, que vão desde meras comodidades oferecidas para desbloqueio de aparelhos eletrônicos no dia a dia, verificação de identidade para autorizar a entrada em determinados estabelecimentos ou para acessar benefícios e serviços, vigilância em espaços públicos, até a categorização por dados sensíveis, como o gênero e raça – novamente, com diversas possibilidades, desde estratégias de marketing até reconhecimento e monitoramento de identidades suspeitas.
As operações automatizadas de reconhecimento facial trazem em si vieses utilizados para o desenvolvimento e programação dos algoritmos que as conformam e estão presentes nos bancos de dados que operam. A despeito da capacidade de processamento superior à humana, a inteligência artificial não é de fato inteligente: ela opera através de coordenadas estabelecidas por humanos para simplificações do mundo real, sob diretrizes muito específicas, e, por isso, pode resultar em discriminação indevida.
Alguns grupos de pessoas são especialmente vulneráveis à essa discriminação; no caso, buscou-se demonstrar o potencial discriminatório em face das identidades transexuais. Seja por ausência ou sub-representatividade nos bancos de imagens, mas não somente, também pela própria limitação das classificações de gênero operadas, que se limitam ao binarismo homem-mulher.
Ainda não existem dados empíricos sobre a eficácia das tecnologias de reconhecimento facial em pessoas trans, mas, antecipa-se que a biometria pode ser um assunto particularmente sensível a esse segmento populacional, pois a incongruência entre os dados biológicos e a identidade socialmente assumida, o corpo em si e suas transformações são marcadores característicos para muitas dessas pessoas, na busca pela construção de uma imagem que se adeque ao gênero vivenciado. O rosto possui ainda a particularidade de estar constantemente exposto, dificultando ocultar e moldar, como as roupas e outras tecnologias permitem que se faça com o restante do corpo; por isso, é um indicador forte de passabilidade para as pessoas transgêneras, precisamente posto à prova por meio da classificação automatizada de gênero via algoritmos.
Ao estabelecer métricas e padrões para classificar um rosto como “masculino” ou “feminino”, o reconhecimento facial pode tanto violar às identidades trans, atribuindo-lhe gênero diverso do socialmente adotado pelo indivíduo, como apresentar erros na atribuição de gênero em si, no caso de pessoas intersexo e não binárias, ou mesmo falhar na autenticação de identidade da própria pessoa comparando as imagens pré e pós transição de gênero.
Além das violações de direito fundamentais, atinentes à identidade, ao corpo, ao nome e à vida privada, essas falhas no reconhecimento ou reconhecimento inadequado podem acarretar consequências práticas imediatas, como impedir o acesso a determinados espaços, (como o uso de banheiros, por exemplo), que já são objeto de discussão no STF no Recurso Extraordinário n. 845779. Ainda, restringem o acesso a informações destinadas a um gênero específico ou a exclusão de serviços e benefícios públicos que adotam o reconhecimento facial como verificação de gênero ou de identidade. Além disso, o uso massivo dessas tecnologias amplia de forma geral as possibilidades de vigilância e de discriminação, tudo com fundamento na pretensa objetividade algorítmica.
Especificamente quanto aos usos do reconhecimento facial pela Administração Pública, a Lei Geral de Proteção de Dados dispensa o consentimento do titular para o tratamento de dados sensíveis nos casos de execução de políticas públicas e não se aplica, de forma geral, às finalidades atinentes à segurança pública. Soma-se a essas autorizações bastante genéricas a ausência de regulação específica sobre as tecnologias de reconhecimento facial no país e uma deficiência generalizada de relatórios de impactos e de eficiência. Causas combinadas de uma grande insegurança na aplicação desses mecanismos.
A utilização da tecnologia para categorização de pessoas inaugura uma nova etapa na disputa pelo reconhecimento da identidade, que deve ser acompanhada com o devido cuidado. Especificamente no reconhecimento facial, há o risco de que frações do corpo sejam utilizadas para classificar o todo e que a identidade seja reduzida meramente a caracteres biológicos.
Referências bibliográficas
Barboza, H. H. G. (2010). Procedimentos para redesignação sexual: um processo bioeticamente inadequado. Tese de doutorado, Escola Nacional de Saúde Pública Sergio Arouca, Rio de Janeiro, RJ, Brasil.
Benevides, B., & Nogueira, S. N. B. (2021). Dossiê Assassinato e Violência Contra Travestis e Transexuais Brasileiras em 2020. pp. 26-71 Disponível em: https://antrabrasil.files.wordpress.com/2021/01/dossie-trans-2021-29jan2021.pdf
Bento, B. (2004). Da Transexualidade Oficial às Transexualidades. In A. Piscitelli, M. F. Gregori & S. Carrara (Org.). Sexualidade e Saberes: convenções e fronteiras. pp. 143-172. Rio de Janeiro: Garamond.
Bettega, E. (2021). O que fazer sobre o viés algorítmico baseado em gênero? In Barbosa B., Tresca, L. & Lauschner, T. (Org.). TIC Governança da Internet e Gênero: tendências e desafios. pp. 125-134. Disponível em: https://www.cgi.br/media/docs/publicacoes/4/20210422084146/ColetaneadeArtigos_TIC_GovernancadaInternet_Genero_digital_CGIbr.pdf
Buolamwini, J. & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81:1-15. pp. 77-91.
Decreto n. 10.046/2019 de 9 de outubro de 2019. (2019). Dispõe sobre a governança no compartilhamento de dados no âmbito da administração pública federal e institui o Cadastro Base do Cidadão e o Comitê Central de Governança de Dados. Presidência da República. Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2019-2022/2019/decreto/D10046.htm>.
Frazão, A. (2021). Discriminação algorítmica: os algoritmos como a última fronteira da “matematização” do mundo. Jota, 30 jun. 2021. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/discriminacao-algoritmica-3-30062021?amp
Geisler, A. R. R. (2017). Autonomia corporal na literatura jurídica sobre o processo transexualizador. In M. Fernandes & A. P. A. Martins (Org). Qual o futuro da sexualidade no Direito? Rio de Janeiro: Bonecker. pp. 47-66.
Keyes, O. (2019). The body instrumental. Logic, 07 dez. 2019. Disponível em: <https://logicmag.io/nature/the-body-instrumental/>.
Konder, C. N. P. (2018). O alcance do direito à identidade pessoal no direito civil brasileiro. Pensar, v. 23, n. 1, jan./mar. p. 1-11.
Lauretis, T. (1987) The technology of gender. In Technologies of gender. Indiana University Press. pp. 1-30.
O’neil, C. (2016). Weapons of Math Destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers. pp. 19-25.
Pinto, J. J., Santos, R. S., Vargens, O. M. C., & Araújo, L. M. (2017). A medicalização e patologização na perspectiva das mulheres transexuais: acessibilidade ou exclusão social. Rev. Enferm. UERJ, v. 25:e29009.
Reis, C., Almeida, E., Silva, F., & Dourado, F. (2021). Relatório sobre o uso de tecnologias de reconhecimento facial e câmeras de vigilância pela administração pública no Brasil. Brasília: Laboratório de Políticas Públicas e Internet.
Rocon, P. C., Sodré, F., & Rodrigues, A. (2016). Regulamentação da vida no processo transexualizador brasileiro: uma análise sobre a política pública. R. Katál., v. 19, n. 2, jul./set., pp. 260-269.
Rodotà, S. (2008). Privacidade e construção da esfera privada. In M.C. Bodin (Org). A vida na sociedade de vigilância. Rio de Janeiro: Renovar. pp. 92-109.
Rodotà, S. (2004). Transformações do Corpo. Revista Trimestral de Direito Civil, ano 5, v. 19, jul./set.
Silva, A. L. Jr. (2018). Feminização, estigma e o gênero facializado: a construção moral do gênero feminino por meio de cirurgias de feminização facial para travestis e mulheres transexuais. Saúde Soc., v.27, n.2. pp.464-480
Silva, M. R. & Varon, J. (2021) Coding Rights & Privacy International (Org.). Reconhecimento Facial no Setor Público e Identidades Trans. Disponível em: https://codingrights.org/docs/rec-facial-id-trans.pdf
Silveira, S. A. & Silva, T. R. (2020). Controvérsias sobre danos algorítmicos: discursos corporativos sobre a discriminação codificada. In Revista Observatório, v. 6, n. 4, jul-set., pp. 1-17.
Supremo Tribunal de Justiça (STF). (2018). Ação Direta de Inconstitucionalidade 4275, Distrito Federal. Disponível em: <https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=TP&docID=749297200>.
Teffe, C. S. & Fernandes, E. R. (2020). Tratamento de dados sensíveis por tecnologias de reconhecimento facial: proteção e limites. In R. G. Silva & G. Tependino (Org.). O Direito Civil na Era da Inteligência Artificial. 1. ed. São Paulo: Thomson Reuters Brasil. pp. 283-315.