audiovisual

#Podcast — Reconhecimento facial: automatizando opressões

#LGBTQIA #racismo algorítmico #reconhecimento facial #vigilância

Coding lança seu primeiro podcast, com episódio que inaugura programa Privacy Is Global, da Internews

Pelo mundo, tecnologias de reconhecimento facial estão sendo gradualmente implantadas em nossas vidas, seja nas câmeras de vigilância pelas ruas, quando precisamos autenticar nossas identidades para acessar serviços sociais ou entrar em bancos e outros locais privados, etc. Mas o que acontece quando usamos um algoritmo binário para autenticar nossas diversidades não binárias. Quem fica de fora? Quais opressões históricas estão sendo automatizadas?

Reconhecimento facial: automatizando opressões é o tema do episódio produzido pela Coding Rights para o podcast Privacy Is Global, uma iniciativa da organização Internews e Fundação Heinrich Böll. No programa, Vanessa Koetz e Bianca Kremer, fellows da Coding Rights em Dados e Feminismos, conversaram com especialistas do Brasil sobre o assunto: Mariah Rafaela Silva, acadêmica e ativista em direitos da população trans e Pablo Nunes, estudioso negro, ativista e especialista em segurança pública e racismo. E pra não restar dúvidas, conversamos também com a responsável por tudo isso: Dona Algô, personagem fictícia da produtora de conteúdo Helen Fernandez, conhecida nas redes sociais como @Malfeitona.

O reconhecimento facial e outros reconhecimentos biométricos têm se mostrado poderosas ferramentas de vigilância em massa que se justificam por um discurso de suposta modernização e garantia da segurança coletiva. Mas e quando essas tecnologias, na verdade, servem para reforçar ações discriminatórias e enviesadas em espaços públicos contra populações historicamente oprimidas e perseguidas?

O Brasil é o terceiro país que mais encarcera no mundo. E das mais de 770 mil pessoas presas no país, aproximadamente 67% são negras. Um levantamento da Rede de Observatórios de Segurança mostra que 90,5% das pessoas presas no Brasil por reconhecimento facial são negras. E para monitorar o uso da tecnologia na segurança pública que Nunes ajudou a criar o Panóptico, projeto que faz parte do Centro de Estudos de Segurança e Cidadania (CESeC). É sobre o contexto brasileiro e como o reconhecimento facial e outros reconhecimentos biométricos têm sido utilizados no Brasil como poderosas ferramentas de vigilância em massa que Nunes conversa com a gente neste episódio.

E antes de pensar sobre a implementação do reconhecimento facial em qualquer espaço, precisamos refletir sobre o desenvolvimento dessas tecnologias. Quem as desenha? Quais são as visões de mundo de quem está projetando? Sabemos que a maior parte dessas tecnologias é desenhada por homens brancos do Norte global. E essa construção faz com que identidades historicamente oprimidas sejam, ao mesmo tempo, visíveis e invisíveis. Complexo? Quem desenvolve essa ideia é a Mariah Rafaela, também entrevistada no podcast. Relembrando um episódio do webdocumentário Das Telas Aos Corpos, produzido pela Coding Rights, ela explica como tecnologias de reconhecimento facial podem perseguir pessoas trans como um instrumento de vigilância que identifica e repreende corpos que são vistos como perigosos em determinados contextos. Mas também pode servir para excluir a população trans de acesso a serviços básicos, como usar o cartão do transporte público, quando a tecnologia não consegue reconhecer uma pessoa trans. Ou seja, visível para a vigilância, invisível para o acesso a direitos e serviços.

Infelizmente, precisamos lembrar que o Brasil é considerado o país que mais mata pessoas trans no mundo. Só no ano de 2020, 175 mulheres trans foram assassinadas. Um aumento de 41% em relação ao ano anterior. Se já era complicado, o que pode acontecer se adicionarmos tecnologias com visão binária de gênero num contexto que já é altamente violento para pessoas trans?

O que fazer diante de tudo isso? Pelo mundo se espalham campanhas pelo banimento global do uso de reconhecimento facial, entendendo que essas ferramentas são capazes de identificar, seguir, destacar individualmente e rastrear pessoas, minando direitos e permitindo uma vigilância discriminatória e enviesada. Em junho deste ano, uma carta assinada por mais de 170 entidades de direitos humanos do mundo todo trouxe esses pontos. O próximo passo é fazer os processos legislativos agirem nesse sentido. E para isso precisamos de muito mais gente incomodada com o tema. Vem ouvir o episódio: