audiovisual

Reconhecimento Facial e suas intersecções com a diversidade de gênero, raça e território

#inteligência artificial #reconhecimento facial #vigilância

Como tecnologias desenvolvidas por homens brancos — e eficazes somente com eles — têm sido usadas para vulnerabilizar grupos minorizados, principalmente mulheres negras e pessoas trans

Por Erly Guedes para a série Das Telas aos Corpos | From Devices to Bodies

Já perceberam como as tecnologias de reconhecimento facial estão em alta e invadiram nosso dia a dia? Servem para desbloquear o celular mais fácil, marcar amigos nas redes sociais, transitar por rodoviárias e aeroportos acessar serviços do Estado de forma mais segura, entrar na academia mais tecnologicamente. Muita gente acha que é uma coisa bem normal e uma das melhores ferramentas de autenticação de identidade que podemos ter. Mas o que será que esse discurso de “mais seguro”, “mais tecnológico” e “mais rápido” que está atrelado ao reconhecimento facial esconde? Será que essas ferramentas de biometria facial funcionam bem? Será que funcionam bem em TODAS as pessoas? Spoiler: elas não têm o mesmo grau de precisão em diferentes indivíduos.

Para discutir todas essas questões, a Coding Rights lança hoje o segundo episódio da websérie From Devices to Bodies (Das telas aos nossos corpos) chamado “Reconhecimento facial: gênero, raça e território”. Dessa vez, Joana Varon entrevistou a pesquisadora do MIT Joy Buolamwini, que, entre muitas outras coisas, se define como “poetisa dos códigos” e é Fundadora da Algorithmic Justice League (Liga da Justiça Algorítmica). A conversa aconteceu no próprio Instituto de Tecnologia de Massachusetts, quando ainda não existia a pandemia de COVID-19 e o distanciamento social não era um imperativo. Esse episódio conta também com a participação da pesquisadora e ativista Mariah Rafaela, que está prestes a lançar um novo estudo sobre Reconhecimento Facial com a Coding Rights, e da cientista da computação Nina Da Hora.

Não é de hoje que a Coding Rights mostra como as tecnologias não são nada neutras. Elas são atravessadas por juízos de valor criados em sociedade e podem refletir as visões de mundo de seus desenvolvedores. Dessa forma, certos bias (viés, muitas vezes denotando preconceitos) podem influenciar o funcionamento dos sistemas de biometria facial. Como explica Mariah, a biometria facial opera com o que é classificado como normal e como anormal, com o que é visível e o que é invisível. “Isso é obviamente transferido para as racionalidades tecnológicas de quem produz esses códigos tecnológicos, quem configura e codifica as inteligências artificiais e, depois, dos operadores”. Acrescente-se a isso o fato de que, como aponta Nina Da Hora, as empresas que criam, desenvolvem e vendem essas tecnologias serem brancas.

Há aí uma série de perigos e incompatibilidades no desenvolvimento e uso das tecnologias de reconhecimento facial, em especial quando aplicadas às mulheres negras e à população trans. Casos reais de implementação falha dessas tecnologias são discutidas no vídeo.

A pesquisadora do MIT, Joy Buolamwini, aponta também alguns dados do seu estudo Gendershades, que analisa o viés de gênero e raça em diferentes sistemas de reconhecimento facial: os sistemas da Microsoft, Face++ e IBM dão respostas de forma precisa apenas quando os sujeitos são homens brancos. A proporção de acertos cai no caso de homens negros e é menor ainda no caso de mulheres negras. Ou seja, quando analisados os resultados por quatro subgrupos, as três empresas tiveram pior desempenho em mulheres de pele mais escura.

RECONHECIMENTO FACIAL PARA SEGURANÇA PÚBLICA?

Sob pretexto de inovação e segurança pública, tecnologias de reconhecimento facial com eficácia bastante limitada e com perigosas imprecisões têm sido comercializadas e usadas sem regulamentação e supervisão ao redor do mundo, ameaçando propagar preconceitos e inverter o princípio da presunção de inocência.

Em larga medida, essas tecnologias são utilizadas em lugares estratégicos dos territórios e os alvos são grupos demográficos historicamente submetidos à determinada ordem (pessoas trans, negras, periféricas, PCD, etc). Sendo assim, o reconhecimento facial opera a partir de critérios que já estão postos a priori socialmente. Não são poucos os casos, no Brasil e no mundo, de erros com viés de classe social, gênero e raça, atribuindo falsos positivos justamente a esses perfis. Além disso, é uma tecnologia que reforça preconceitos sociais, mantendo sistemas de persecução penal discriminatórios e estigmatização de camadas menos privilegiadas da população. Mas, indo além, não bastaria diversificar as bases de dados de treinamento desses algoritmos para amenizar percentual de erro, pois, essas tecnologias, quando aplicadas para policiamento, podem se tornar instrumentos de vigilância em massa. Não é por menos que muitas cidades norte-americanas baniram o uso dessa tecnologia em CCTVs e que algumas empresas também declaram que não venderiam mais esse tipo de software para a polícia.

RECONHECIMENTO FACIAL PARA AUTENTICAR DOCUMENTOS DE IDENTIDADE?

O documentário também aponta que outro uso de tecnologias de reconhecimento facial que tem se tornado cada vez mais comum é a autenticação da identificação de indivíduos, seja durante a utilização de um benefício social no transporte coletivo, como o passe livre de estudantes e idosos, seja na carteira de motorista ou para acessar aplicativos de serviços públicos como o meugov.br, que concentra informações sobre MEI, INSS, ENEM, Receita Federal, entre outros. Como esses sistemas de biometria facial reforçam uma série de estereótipos que operam nesse lugar de marcação, de limitação da autoafirmação do outro, não são raros casos de erro de identificação e consequente exclusão de corpos e expressões de gênero. Por exemplo, casos de pessoas trans que não puderam autenticar sua identidade.

Outra questão importante destacada no filme é: quem tem acesso a esses dados biométricos, que são por definição dados sensíveis? Por exemplo, o Serpro, empresa pública desenvolvedora do software de autenticação aplicado em vários desses documentos e serviços público, corre risco de privatização. E, mais ainda, se esses dados são extraídos de nossos corpos transitando pelos territórios (por vezes servindo também para bloquear ou constranger o trânsito em certos territórios) ou ainda como requisito indispensável para acessar serviços públicos, não temos a possibilidade de dizer não. Todo o significado de consentimento se altera. Como afirma Mariah, no caso do app meugov.br, “Se você não concede acesso biométrico, a continuidade na plataforma é negada. E se você não consegue acessar a plataforma, não consegue acessar o serviço que o Estado tem para oferecer”. Nesse caso, enquanto cidadãs estamos submetidas a uma relação desigual de poder com o Estado e isso impede nossa possibilidade de consentir ou não com a coleta de nossos dados biométricos.

***

Como bem diz Mariah Rafaela no vídeo, tecnologias podem servir de ferramenta para a superação de desigualdades de gênero e raciais ou, pelo contrário, acabar com as possibilidades de expressões de gênero, discriminar e reforçar assimetrias de poder, principalmente se elas operam a partir de princípios essencialistas, biologizantes. É necessário, portanto, tanto trazer diversidade na construção e debate sobre o uso dessas ferramentas de biometria facial quanto ter cuidado com o hype!

*From Devices To Bodies é uma websérie de curtas produzida pela Coding Rights que reúne conversas fascinantes com mulheres e pessoas não-binárias, pesquisadoras que visam ampliar os debates sobre a implementação de biotecnologias e tecnologias digitais que funcionam baseadas na coleta de dados sobre nossos corpos. Você pode assistir todos os episódios, em inglês e português, no youtube da Coding Rights.