Tecnologias de reconhecimento facial na verificação de identidades trans
#inteligência artificial #racismo #reconhecimento facialNa semana da Visibilidade Trans, Coding Rights lança análise sobre sistemas de reconhecimento facial utilizados pelo governo federal como forma de verificar identidades e destaca desafios para a privacidade e autodeterminação de gênero de pessoas trans e não binárias em suas interseccionalidade de raça, classe e território
A Coding Rights apresenta nesta quarta-feira (27), às 14h, a pesquisa “Reconhecimento facial no setor público e identidades trans: tecnopolíticas de controle, vigilância e ameaças à diversidade de gênero em suas interseccionalidades de raça, classe e território”, escrita pelas pesquisadoras Mariah Rafaela Silva e Joana Varon. O lançamento ocorre na semana do dia 29 de janeiro, que marca o dia da Visibilidade Trans no Brasil.
Cada vez mais, o reconhecimento facial tem sido implementado em ruas, aeroportos, no transporte urbano e, mais recentemente, órgãos do governo federal tem desenvolvido pilotos que utilizam essa tecnologia para verificação de identidade, seja em documentos, como a carteira de motorista, ou para acesso a serviços públicos, como INSS, MEI, entre outros que vão sendo gradualmente incorporados no app meugov.br.
Essa tendência deve se acelerar diante do estabelecido no Decreto 10.543 de novembro de 2020, que dispõe sobre assinaturas eletrônicas na administração pública federal e estabeleceu prazo até meados de 2021 para que órgãos federais descrevam que assinatura digital vão aceitar para atendimento de demandas totalmente digitais. Nesse sentido, o app do gov.br, o mesmo utilizado para um piloto de prova de vida no INSS, tem sido disseminado pela Secretaria de Governo Digital como ferramenta de verificação remota por reconhecimento facial mais indicada como forma de “assinatura avançada”.
Através de a) perguntas, via Lei de Acesso à Informação, enviadas ao Serviço Federal de Processamento de Dados (SERPRO), Ministério da Economia, INSS, Receita Federal, Dataprev, Banco do Brasil e Secretaria de Governo Digital; b) elaboração de um questionário virtual que circulou em grupos de pessoas trans e não binárias sobre impressões a respeito das tecnologias de reconhecimento facial e c) entrevistas estruturadas com cinco mulheres transexuais ativistas que atuam em diferentes perspectivas na promoção de direitos humanos das pessoas travestis, transexuais e não binárias, o estudo analisa as complexidades de ampliar a implementação dessa tecnologia para fins de identificação, com foco na identificação de pessoas trans.
Foram entrevistadas: Bruna Benevides, primeira mulher trans na ativa na Marinha do Brasil e desenvolve um trabalho fundamental na Associação Nacional de Travestis e Transexuais (ANTRA) como secretária de articulação política; Viviane Vergueiro, ativista e pesquisadora em Estudos Interdisciplinares sobre mulheres, gênero e feminismos pela Universidade Federal da Bahia; Fernanda Monteiro, tecnologista e pesquisadora independente em segurança digital; Bárbara Aires, ativista e consultora em gênero e estudante de Comunicação e Sasha Costanza-Chock, pessoa não binária trans femme, pesquisadora do Massachussets Institute of Technology (MIT), que trabalha apoiando processos comunitários no desenvolvimento e desenho de tecnologias.
Com um olhar feminista interseccional e decolonial, partimos tanto de um breve recorrido da luta pela garantia de cidadania por pessoas trans e não binárias no Brasil, como de um resgate das origens históricas das tecnologias de reconhecimento facial. Uma trajetória que vai do racismo científico que embasou a antropometria forense nas ciências criminais até estudos atuais que demonstram práticas de racismo algorítmico, segregação, exclusão e vigilância no uso dessas tecnologias. Mapeamos as implementações dessas tecnologias pelo governo federal como forma de verificar identidade e analizamos essas práticas tendo em vista tanto o marco legal da proteção de dados pessoais, bem como questionamentos sobre racismo, transfobia e discriminação algorítmica.
O resultado: preocupações sobre transparência, discriminação e proteção de dados que se estendem a todas nós. O SERPRO, empresa pública desenvolvedora dos softwares Biovalid e Datavalid, é o principal provedor dessas tecnologias para o governo federal. Elas funcionam cruzando imagens com a base do Denatran, o Registro Nacional de Carteira de Habilitação (RENACH), gerida pelo Serpro. Mas, em resposta às nossas perguntas, a empresa não apresentou dados de acuracidade desses dois serviços.
Quando perguntamos sobre margem de erro do sistema para o INSS, um dos órgãos que utiliza a tecnologia do Serpro, declararam que a prova de conceito validou apenas 64,32% das biometrias realizadas. Quando indagado especificamente sobre a margem de erro do reconhecimento facial utilizado na CNH, o Serpro declarou que “a tecnologia utilizada considera altíssima probabilidade para imagens que possuem acima de 93% de similaridade.” O que acontece quando mudamos muito, por exemplo, transicionamos, e a similaridade fica abaixo de 93%? Abre-se margem, portanto, a muitos falsos negativos, ou seja, situações em que a tecnologia não reconhece que você é você e te deixa trancada para fora do sistema. No caso do reconhecimento facial implementado no transporte público, que já acontece há alguns anos, já existe caso registrado de estudante trans que teve seu passe de ônibus bloqueado, ficando sem gratuidade e acesso ao transporte para estudar. Quantos mais ocorreram? Quantos mais vão acontecer com essa nova tendência de verificação de identidades?
Precisamos de mais transparência e dados sistematizados para monitorar erros do sistema e o impacto que isso pode ter em direitos humanos. E essa transparência vai além de publicar dados gerais, pois outro ponto crítico é que, mesmo quando esses órgãos apresentam dados de erros, não trazem uma visão desagregada desses percentuais, contrária-se, portanto, uma tendência de análise dessas tecnologias que levam em conta diferentes perfis demográficos.
As pesquisadoras Joy Boulamwini, do MIT, e Timnit Gebut (que inclusive foi demitida do Google depois de um episódio de censura de uma pesquisa sobre ética em sistemas de inteligência artificial) já demonstraram que sistemas de reconhecimento facial de grandes empresas, como IBM, Microsoft, Amazon, falham, principalmente, em reconhecer rostos de mulheres negras. Desde então, até o National Institute of Standards and Technology — NIST, apontado pelo Serpro como referência, realiza estudos analisando margem de erro de acordo com perfis demográficos. No Brasil, prevalece a falta de transparência.
Diante desses desafios, a pesquisa da Coding Rights traz uma genealogia da luta histórica da população trans pelo direito ao nome, à identidade e ao gênero e, não é por menos que, frente a um histórico de exclusão e violência institucional, em uma breve enquete coletando impressão de ativistas trans sobre a implementação dessas tecnologias, 90.5% responderam que acreditam que essa tecnologia pode operar numa perspectiva transfóbica e 76,2% acreditam que podem colocar privacidade em risco. Também prevaleceu a impressão, entre 95,2% das pessoas que responderam ao questionário, de que essa tecnologia pode deixá-las vulnerável a situações de constrangimentos e contribuir para a estigmação de pessoas trans. Ao serem perguntadas se concordavam com o uso amplo dessa tecnologia como forma de identificação civil, 66,7% discordou. Ainda que esses percentuais não tenham representatividade estatística, trazendo apenas impressões de ativistas trans engajadxs nas pautas de direitos, são indicativos fortes de preocupações que existem e estão por vir, não apenas para pessoas trans.
Toda essa situação de falta de transparência se agrava pelo fato do SERPRO, gestor da base de dados das carteiras de motoristas de todo o país, correr o risco de privatização. Essa base de dados é tão preciosa que, segundo denúncia feita pelo The Intercept em junho de 2020, a Abin chegou a solicitar ao SERPRO dados da CNH, o que até novembro de 2019 representava 76 milhões de habilitações. Com a implementação de mais sistemas de reconhecimento facial para acesso aos serviços públicos, essa bases vão crescendo e vamos ficamos mais vulneráveis a vazamentos ou compartilhamentos indevidos de dados pessoais. Tudo isso em um contexto em que ainda não temos uma Autoridade Nacional de Proteção de Dados que esteja operante.
A pesquisa é portanto um alerta para que se ampliem os debates públicos e a transparência no processo de implementação dessas tecnologias para que possamos traçar limites enquanto muitos desses processo estão em estágio de testes piloto.
O lançamento da pesquisa ocorrerá de maneira online, em um bate-papo transmitido no YouTube e Facebook da Coding Rights. Participações confirmadas de Mariah Rafaela Silva, autora da pesquisa, professora, ativista e pesquisadora; Nina da Hora, Cientista da Computação pela PUCRio com formação adicional no Programa Apple Developer Academy; Viviane Medeiros, Doutoranda em Estudos Interdisciplinares sobre Mulheres, Gênero e Feminismos (PPGNEIM/UFBA) e pesquisadora do Núcleo de Pesquisa e Extensão em Culturas, Gêneros e Sexualidades (NuCuS/UFBA); e Fernanda Monteiro, Tecnologista e pesquisadora independente em segurança digital e consultora em infra e segurança digital da Coding Rights.
Acesse a pesquisa em: