notas técnicas

Especialistas em justiça social e tecnologia expressam preocupações sobre o debate de IA dominado por homens brancos

#inteligência artificial #notas técnicas

Carta aberta aos meios de comunicação social e aos responsáveis políticos
Re: Peritos em tecnologia da Maioria Global

*Texto original em Inglês publicado em: https://www.freepress.net/news/press-releases/digital-justice-and-human-rights-experts-across-globe-raise-concerns-about-ai

Prezados meios de comunicação e formuladores de políticas públicas:

Nós, as abaixo-assinadas, mulheres e pessoas não binárias da maioria global, que trabalhamos na linha de frente da política de inteligência artificial e de tecnologia, convidamos os veículos de imprensa e os formuladores de políticas a expandirem sua cobertura dos desafios decorrentes da tecnologia digital, explorarem nosso conhecimento coletivo e ampliarem o grupo de especialistas procurados como fontes para tratar dessas questões.

Por muito tempo, a cobertura da mídia sobre as ameaças e riscos da tecnologia foi definida pelos CEOs de tecnologia e seus departamentos de relações públicas. Enquanto isso, os danos dessas tecnologias continuam a recair desproporcionalmente sobre as comunidades das quais fazemos parte. Ao mesmo tempo, os formuladores de políticas em todo o mundo estão lutando para acompanhar os desenvolvimentos tecnológicos e defender efetivamente as pessoas dos excessos dos poderosos barões da tecnologia.

Mulheres e pessoas não binárias de toda a maioria global consistentemente temos levantado preocupações sobre as maneiras como a tecnologia está prejudicando nossas comunidades, apesar do grande risco pessoal e profissional. Examinamos a maneira como a tecnologia, e a IA em particular, minou a democracia e prejudicou comunidades historicamente oprimidas, como mulheres, pessoas negras, pessoas LGBTQIA+, minorias étnicas e pessoas economicamente desfavorecidas em todo o mundo. Escrevemos livros, enfrentamos regimes opressivos com reportagens corajosas, denunciamos algumas das maiores empresas de tecnologia de nosso tempo, realizamos pesquisas quantitativas e participativas, organizamos campanhas anti-ódio que aumentaram o escrutínio público das empresas de tecnologia e muito mais . Por conta destes e outros posicionamentos, perdemos oportunidades profissionais e pessoais, sendo algumas de nós forçadas ao exílio por nos manifestarmos contra regimes opressores.

Experimentamos em primeira mão os impactos quando os sistemas de IA são usados para nos discriminar, quando as empresas de tecnologia tentam nos silenciar, quando as campanhas de ódio e assédio nos visam e quando os governos exploram a tecnologia para nos vigiar e nos oprimir.

No entanto, nas consultas sobre os riscos e desafios que as novas tecnologias apresentam, continuamos marginalizados. Como discutimos o perigo real e presente e não a ficção científica, nossas preocupações são apresentadas como insignificantes. Enquanto isso, ex-executivos de empresas de tecnologia tornam-se ativistas da noite pro dia, mesmo depois de lucrar com os sistemas que criaram, que consolidaram ainda mais suas empresas no topo da economia global. Na semana passada, o Dr. Geoffrey Hinton deixou o Google e emitiu graves advertências sobre o risco da inteligência digital. Ele recebeu ampla cobertura da mídia, apelidando-o de “padrinho da IA” e pedidos de reuniões e orientações de formuladores de políticas e CEOs de tecnologia. Em uma entrevista à CNN, quando questionado sobre outros denunciantes como a Dra. Timnit Gebru, Hinton afirmou que as preocupações de Gebru não são tão “existenciais” quanto as que ele está levantando.

Rejeitamos a premissa de que apenas homens brancos ricos decidem o que constitui uma ameaça existencial à sociedade e pedimos aos formuladores de políticas públicas e à mídia que diversifiquem suas fontes. Para pessoas negras, mulheres, pessoas LGBTQIA+, minorias religiosas e de casta, indígenas, migrantes e outras comunidades marginalizadas, a tecnologia sempre representou uma ameaça existencial, foi repetidamente utilizada para garantir nossa inferioridade nas estruturas de poder da sociedade.

As observações de Hinton são apenas as mais recentes em uma longa história global de ignorar os alarmes soados por qualquer um que não seja um homem executivo de tecnologia. Não podemos permitir que essas percepções estreitas de risco definam os termos do debate sobre IA. Para os refugiados que perdem o direito de asilo devido ao racismo arraigado na gestão das fronteiras, os riscos atuais são existenciais. Para as pessoas que perdem o acesso a serviços financeiros vitais devido aos vieses algorítmicos, o risco é existencial. As redes fechadas que esses homens representam não podem definir totalmente o problema e não têm todas as soluções.

Pedimos que vocês busquem ativamente a nossa profunda experiência. Mais importante ainda, solicitamos que procurem orientação junto às comunidades mais impactadas negativamente pela tecnologia e pela IA como um passo fundamental para aprofundar a compreensão e a responsabilidade. Comprometemo-nos a garantir que a tecnologia digital seja uma força de justiça, democracia e libertação, e não uma ferramenta de opressão. Vocês estão conosco?

Sinceramente,

Rosemary Ajayi, fundadora do Digital Africa Research Lab (DigiAfricaLab)

Esra’a Al Shafei, Fundador e Diretor Executivo, Majal.org. Membro do conselho da Wikimedia Foundation e Tor Project

Htaike Htaike Aung, ativista dos direitos digitais, Myanmar Internet Project

Dra. Sasha Costanza-Chock, professora associada da Northeastern University, autora de Design Justice: Community-Led Practices to Build the Worlds We Need

Nighat Dad, fundador e diretor executivo da Digital Rights Foundation

Marianne Díaz Hernández, ativista de direitos digitais e pesquisadora, #WhyID Campaigner no Access Now

Dr. Timnit Gebru, Fundadora e Diretora Executiva, Distributed Artificial Intelligence Research Institute (DAIR)

Arzu Geybulla, Jornalista, Fundadora do Azerbaijan Internet Watch

Jessica J. González, co-CEO da Free Press, co-fundadora da Change the Terms, Stop Hate for Profit e Stop Toxic Twitter

Jac sm Kee, ativista feminista de tecnologia, cofundadora e diretora do Numun Fund

Libby Liu, CEO da Whistleblower Aid, criadora do Open Technology Fund

Dra. Safiya U. Noble, professora da UCLA, autora de Algorithms of Oppression: How Search Engine Reinforce Racism, MacArthur Fellow e fundadora do Center on Race and Digital Justice

Nanjala Nyabola, escritora e cientista política, Independente

Paola Ricaurte, Professora Associada do Tecnológico de Monterrey; Professora Associada, Berkman Klein Center for Internet & Society; Co-fundadora da Rede Tierra Común; Líder do LAC Hub, Feminist AI Research Network, f<A+i>r

Thenmozhi Soundararajan, Diretora Executiva, Equality Labs

Joana Varon, Fundadora e Diretora Executiva da Coding Rights; Pesquisadora afiliada ao Berkman Klein Center da Harvard University; Membro da Feminist AI Research Network – f<A+i>r