“IA para o bem comum: fortalecendo sistemas alternativos”, recomendações do encontro com Timnit Gebru
#algoritmo #Colonialismo Digital #democracia #desinformação #direitos econômicos #futuros especulativos #inteligência artificial #Monopólio das Big Tech #racismo algorítmico #reconhecimento facialNo dia 6 de junho de 2024, tivemos a honra de receber, em parceria com a Distributed AI Research Network – DAIR, MediaLab.UFRJ, Lavits e Instituto da Hora, Timnit Gebru, renomada cientista da computação especializada no campo da ética no uso da inteligência artificial, cofundadora do Black in AI e do Distributed AI Research Institute – DAIR, para um debate com pesquisadoras e legisladoras sobre alternativas para desenvolvimento de Inteligência Artificial pensadas para o bem comum.
A mesa redonda contou com, além de Timnit, Dani Monteiro, Deputada Estadual do Rio de Janeiro e parlamentar que fez parte da iniciativa “Sai da Minha Cara”, que propõe projetos de lei para proibir o reconhecimento facial na segurança pública; Estela Aranha, Membro do Conselho Consultivo de Alto Nível da ONU sobre IA; Roberta Eugênio, Secretária Executiva do Ministério da Igualdade Racial; e Samara Castro, Diretora de Promoção da Liberdade de Expressão SPDIGI/SECOM Presidência da República. Além de insights, performance e moderação das organizadoras: Joana Varon, Fundadora e Co-diretora Executiva da Coding Rights; Fernanda Bruno, Coordenadora do MediaLab na UFRJ e Nina da Hora, Diretora Executiva do Instituto da Hora. Também teve toda poesia do slam do o Mafe e timbal da Luana Vianna.
Você pode assistir a íntegra do evento aqui, e reunimos abaixo algumas das recomendações-chave que surgiram do debate – também apresentadas ao T20, grupo de engajamento de centros de pesquisa e think tanks no G20:
Recomendações-chave:
• É necessário promover uma inflexão, um desvio no modelo hegemônico de Inteligência Artificial, um modelo que contraria o bem comum. Concentrado em algumas grandes corporações de tecnologia, ele envolve práticas extrativistas em larga escala, que têm se mostrado muito violentas para a vida coletiva, a democracia, a justiça socioambiental, racial e socioeconômica, com efeitos de precarização da vida cotidiana, do trabalho e também do tempo livre, da comunicação e da saúde mental. O modelo de IA das grandes corporações de tecnologia continua e potencializa uma perspectiva antropocêntrica, colonial e patriarcal da tecnologia que precisa ser urgentemente questionada não apenas no campo das ideias, mas também nas práticas e instituições.
• A ideia de um modelo universal que funciona para todos é uma falácia, um argumento fictício que alimenta uma monocultura tecnológica cultivada em modelos de monopólio. Isso porque, seguindo essa lógica, apenas algumas empresas estão posicionadas no mercado de maneira a poder construir modelos que rodam uma quantidade massiva de dados (de tal forma que é impossível mantê-los seguros), dependendo de um enorme poder computacional (que consome muita energia e água). No fim, é uma desculpa para explorar trabalho, coletar dados, destruir o meio ambiente e manter monopólios com produtos de baixa qualidade que não respondem às necessidades locais, porque o “long tail”, “cauda longa”, não é importante para as grandes empresas de tecnologia. O que queremos é o oposto: modelos menores, com bases de dados curadas para fins específicos, menores, que funcionam melhor. Organizações comunitárias de pequeno porte que se preocupam com seu povo, conhecem o contexto e se preocupam com os impactos nos territórios. Para mudar esse paradigma, são necessários investimentos diretos, porque a falsa alegação de que as grandes empresas de tecnologia podem rodar um modelo universal, que pode fazer qualquer coisa, para qualquer um, causa desinvestimento em empresas locais menores.
• A base são as pessoas. A tecnologia precisa ser distribuída, para que as pessoas que a desenvolvem possam permanecer conectadas às suas raízes e trabalhar em questões que compreendem e com padrões comunitários. Práticas de ciência ou pesquisa paraquedista, que desde a colonização vêm roubando conhecimentos, especialmente de povos indígenas, devem ser desencorajadas e evitadas. As ferramentas devem ser construídas a partir das necessidades das pessoas e por aqueles a quem são destinadas.
• Federações de pequenas organizações locais que trabalham com IA devem ser incentivadas, assim, por exemplo, para grandes modelos de linguagem (LLM), haveria uma API que cobre muitas traduções, mas as empresas estariam lá usando uma infraestrutura comum para adaptá-la para atender às necessidades locais de suas comunidades.
• Dados são políticos. O sistema hegemônico está monetizando dados, mas o que precisamos é politizá-los. Comunidades marginalizadas muitas vezes são invisibilizadas também pelo fato de que os dados produzidos pelo setor público para políticas públicas tendem a não capturar as sensibilidades e complexidades de suas condições de vida. Devem haver incentivos para sistematizar dados sobre violência, letalidade policial, saneamento, e outros dados coletados pelos e para os territórios, dados cidadãos. As chamadas “soluções” apresentadas pelas grandes empresas de tecnologia, na maioria das vezes, não resultam da compreensão das dimensões locais do problema, e, assim, provavelmente não resolverão nada.
• O que significa falar sobre o bem comum em uma sociedade onde reconhecer desigualdades não levou à produção de respostas eficientes para transformar essa realidade? Não se trata apenas de promover acesso. Abordar o acesso e a permanência nesses espaços não é suficiente. É necessária uma mudança no sistema, para que o bem comum não seja apenas uma diretriz, mas uma realidade no presente. É importante fomentar incubadoras e incentivar projetos de tecnologia que respondam aos vieses discriminatórios que encontramos neste campo hoje e também investir em tecnologias que ajudem a construir horizontes de igualdade onde as diferenças não representem mais violência.
• É essencial redesenhar métodos de pesquisa sobre e com tecnologias. É fundamental desfazer as fronteiras disciplinares que historicamente moldaram a produção de conhecimento nas universidades em favor da construção de centros efetivamente transdisciplinares que envolvam ciência da computação, engenharia e ciência de dados, mas também ciências sociais e humanas, ciências ambientais, artes, conhecimentos tradicionais e outros campos do saber.
• Universidades e pesquisas sobre IA estão sendo financiadas por grandes empresas de tecnologia, os governos precisam investir e promover P&D para que a tecnologia também seja produzida para o bem comum e além das prioridades de mercado. Precisamos de uma diversidade mais ampla de pessoas e propósitos para construir imaginários sociotécnicos alternativos sobre como as tecnologias são produzidas, padronizadas, comercializadas, usadas e integradas na vida das pessoas, para além do que resulta das opções de investimento de grandes empresas ou corporações internacionais.
• São necessárias mais conversas no campo da IA e da educação, particularmente envolvendo crianças e adolescentes. O tempo de tela já está afetando o desenvolvimento cognitivo das crianças, a inteligência artificial afetará o futuro da cognição humana?
• Infraestruturas Públicas Digitais (DPIs) devem ser alvo de investimento para evitar a superplataformização dos serviços públicos nas infraestruturas das grandes empresas de tecnologia.
• IA não existe sem trabalho, dados e extrativismo mineral. Países do Sul Global são grandes fornecedores desses insumos. Precisamos materializar a cadeia global de produção de IA, centralizando os debates sobre danos ambientais e direitos trabalhistas, seja de trabalhadores e trabalhadoras que operam na mineração, rotulagem, moderação de conteúdo e outras atividades que foram invisibilizadas pelas narrativas das grandes empresas de tecnologia. A geopolítica do trabalho e da IA é um debate da economia política que deve ser mais explorado tanto em políticas públicas quanto em legislação.
• No Brasil, somos produtores altamente qualificados de dados e conteúdo. Este já é um talento brasileiro. Não é à toa que a discussão sobre cultura e produção artística também são temas importantes em todos os processos de regulamentação dos espaços digitais. Ao falar sobre a produção de conteúdo e dados altamente qualificados e estruturados, a remuneração deve ser debatida. Políticas públicas e legislações devem debater modelos de compensação pelo uso dessas produções de conteúdo pelas grandes empresas de tecnologia, ou pelo menos garantir que as pessoas que não desejam ter sua produção de conteúdo utilizada por essas empresas tenham seus direitos respeitados.
• Também em termos de regulamentação, devemos inverter o ônus da prova de maneira que, para além de uma avaliação de risco futuro feita pelos reguladores, as empresas também provem de antemão que não estão utilizando dados de maneira inadequada ou causando danos com as tecnologias que desenvolvem. Nem toda tecnologia deve existir. Se uma tecnologia deve ou não ser desenvolvida é uma discussão que precisa ser feita.
O documento original com essas recomendações enviado ao T20 está disponível em inglês, aqui:
https://codingrights.org/docs/notas_tecnicas/Key_Recommendations_IA_para_o_bem_comum.pdf e a tradução para o Português, está disponível aqui: https://codingrights.org/docs/notas_tecnicas/Key%20recommendations_IA_para_o_bem_comum_traducaoPT.pdf