Podemos vigiar os vigilantes?
#algoritmo #blogpost #desinformação #privacidade #proteção de dadosPor Joana Varon e Lucas Teixeira| Boletim Antivigilância n.16
Várias reportagens que analisaram o escândalo da Cambridge Analytica e a série de artigos deste boletim já deixaram claro que a empresa é simplesmente uma coadjuvante em um problema muito mais complexo: o modelo de negócios das principais redes sociais que utilizamos hoje.
Mesmo que o Facebook chegue a restringir fortemente a exploração de dados pessoais por parte dos apps que utilizam a plataforma (o que não parece estar acontecendo para além de medidas superficiais), a essência do funcionamento dessa, e de outras redes sociais, continua sendo a mesma: monitorar o máximo possível tudo que fazemos por lá (na verdade, pela web inteira) e utilizar esses dados para compor perfis nos quais possam encaixar toda a diversidade humana de maneira classificada. Esses perfis passam a ser então monetizáveis. A venda de anúncios direciconados ou priorização de posts patrocinados, teoricamente, de acordo com nossos interesses, é hoje a principal forma em que se dá essa monetização.
Por outro lado, também sabe-se que as próprias plataformas têm experimentado com nossos dados para moldar seus algoritmos. É o caso, por exemplo, do experimento do Facebook que utilizou nossas informações de reação a posts, ou seja, a variedade de carinhas que escolhemos para reagir a uma publicação, para tentar manipular nossas emoções. O estudo consistia em priorizar posts na nossa timeline de acordo com as informações de humor que deixamos como rastro nas nossas interações com a plataforma. E concluiu que com isso era capaz de fazer com que as pessoas se “sentissem” tristes ou felizes.
Por outro lado, observamos também que esse sistema de interações sociais baseado em “likes” e “compartilhamentos” instigou a criação de táticas engenhosas, que usam trabalho manual repetitivo ou até mesmo formas automatizadas para tentar influenciar a priorização de posts dada pelo algoritmo. Daí a ampliação do uso de bots, o estabelecimento dos Netcenters e também a produção de manchetes e notícias chamativas que chegam até a promover desinformação para chamar atenção.
O fato é que enquanto sabem cada vez mais sobre nós e determinam “quem somos”, não sabemos quase nada sobre como estão influenciando nosso consumo de notícias e outras informações. Sem uma metodologia transparente de como isso é decidido, muitas vezes páginas de conteúdo político sensível e importante são soterradas por posts patrocinados ou “inflacionados” por táticas obscuras. Ou, simplesmente, foram priorizados pelo algoritmo que traçou quem você é e te colocou no chamado “filtro bolha”, efeito que nos aliena do todo por receber notícias e posts que reafirmam nossas convicções. Fenômeno apontado por alguns como uma das razões pelas quais temos, por todo o mundo, nos polarizado tanto.
Coleta massiva de dados pessoais sem que se tenha uma dimensão sobre quais e quantos dados são, enquadramento involuntário do nosso “eu” em perfis publicitários que nem imaginamos quais sejam; manipulação da informação que nos é apresentada ou da priorização do que não é informado são alguns aspectos importantes que compõe a caixa preta do ambiente digital em que as campanhas eleitorais passaram a circular.
Levando em conta que é necessário desvendar como essas caixas pretas funcionam, vários grupos de pesquisadorxs, coletivxs, ativistas e desenvolvedorx de todo mundo tem desenvolvido ferramentas que possibilitam maior transparência a respeito dessas práticas de formação de perfil, publicidade direcionada, priorização de posts, detecção de bots e até mesmo compartimentação de nossos dados. Tendo em mente essa classificação, listamos algumas ferramentas abaixo:
1. FERRAMENTAS PARA MAIOR TRANSPARÊNCIA NA FORMAÇÃO DE PERFIS E PUBLICIDADE DIRECIONADA
a) Exposição do processo de criação de perfis e estereótipos
Data Selfie
Em vez de tentar conduzir estudos sobre o algoritmo do Facebook ou proteger seus dados da empresa, o Data Selfie busca mostrar a você o potencial de agregação e análise de dados que o seu uso diário do Facebook proporciona. Nesta edição, uma das criadoras da extensão conta mais detalhes.
What facebook thinks you like
“Do que o facebook acha que você gosta” é uma extensão para o navegador Chrome desenvolvida pela ProPublica para coletar informações sobre as categorias nas quais o facebook nos enquadra para recebimento de anúncios. Quem baixa a ferramenta pode dar uma nota de quão preciso consideram que seja essa classificação.
b) Monitoramento de publicidade direcionada
ProPublica Political Ad Collector
Em setembro de 2017, a agência de notícias ProPublica lançou uma extensão para navegador chamada Facebook Political Ad Collector (“coletor de propagandas políticas no Facebook”) que permite compartilhar com a agência, de forma desvinculada de sua identidade, as propagandas que aparecem na sua timeline do Facebook. Há um processo de identificação de quais dessas propagandas são políticas, e o resultado final é agregado a uma base de dados para estudos sobre eles, usadas pela agência e por um grupo de parceiras, como a alemã Der Spiegel, a The Guardian australiana, a Openpolis na Itália e outras. É possível instalar no Firefox e Chrome.
Who Targets Me
Logo após as eleições gerais de 2017 do Reino Unido serem anunciadas, Sam Jeffers e Louis Knight-Webb iniciaram em Londres o projeto Who Targets Me (“De Quem Sou Alvo”), que busca trazer maior transparência com respeito ao uso de propaganda em meios digitais, em especial o Facebook.
Atualmente, eles e mais um grupo de pesquisadores, jornalistas e acadêmicos trabalham em torno de uma extensão para navegador (Firefox, Chrome) que coleta dados sobre direcionamento de propagandas. Após algum tempo usando a extensão é possível fazer uma análise dessas informações para revelar como são construídos os perfis psicológicos de pessoas na plataforma e como diferentes tipos de peças publicitárias são direcionadas de acordo com eles e outras informações pessoais compartilhadas, voluntariamente ou não, com o Facebook.
c) Monitoramento da priorização do algoritmo
Facebook.tracking.exposed
Quando você passa sua timeline do Facebook, os posts que aparecem não são puxados de forma aleatória ou na ordem cronológica em que aparecem. Um processo complexo de tomada de decisão determina o que você vai ver em seguida, e se saiba que ele leva em conta a promoção de outros posts e o perfil que a empresa tem sobre você, o funcionamento exato desse algoritmo é desconhecido.
O facebook.tracking.exposed é um projeto que busca “observar, avaliar e conhecer melhor o algoritmo do Facebook, em particular como o FB potencializa e lucra com conteúdos promovidos”, em busca de trazer um melhor entendimento sobre como o Facebook opera no mercado através dessas promoções e permitir que pesquisadores possam analisar como o Facebook posiciona os diferentes posts para aparecem pra você.
Ao instalar a extensão no Firefox ou no Chrome, ele passa a enviar para o facebook.tracking.exposed informações aos posts que aparecem na sua timeline (desvinculadas da sua identidade e somente de posts públicos). Esses dados são agregados em um grande banco de dados preciosos para fazer uma “engenharia reversa” de como ocorre o posicionamento de notícias. Além disso, ao usar a extensão por algum tempo você pode acessar sua “dieta de informações”, mostrando quais autores e conteúdos ocupam mais a sua atenção enquanto rola a timeline, além de permitir dados aos dados crus para fazer uma análise customizada das informações providas pela ferramenta.
d) Deteccão de bots e perfis “falsos” nas redes
Com toda a comoção em torno da promoção de desinformação na rede, não param de surgir distintas metodologia e ferramentas e para detectar bots nas redes sociais. No Brasil, por exemplo, pesquisadores do Departamento de Ciências da Computação da Universidade Federal de Minas Gerais lançaram no projeto “Eleições Sem Fake”. O site do projeto disponibiliza uma série de plugins, que vão desde monitoramento de publicidade direcionada a um sistema que verifica se hashtags que entram para os trending topics são promovidas por bots ou humanos. O projeto também traz algumas ferramentas para auxiliar em processos de fact checking de informação.
2. PROTEÇÃO DE DADOS
Mozilla container
A Mozilla criou uma extensão para o Firefox que isola sua identidade registrada no Facebook em um “container” que não permite os scripts da empresa acessem os dados de outras abas abertas no navegador. Assim, a rede fica impedida de saber por quais websites você navega através dos chamados “third-party cookies”. Isso permite que você continue usando a rede no mesmo navegador sem que o resto da sua vida na Web seja monitorada.
Privacy Badger
A extensão Privacy Badger busca impedir, para além das redes sociais, o monitoramento online feito pelos vários “trackers” que, através de scripts carregados praticamente em todas as páginas que você visita.
Em vez de bloquear todos os scripts, o que é uma solução mas deixa os sites tortos, disfuncionais ou completamente inutilizáveis, ele vem embutido de uma inteligência que consegue entender quais scripts (ou partes deles) estão sendo usadas para monitoramento (e não, digamos, para tornar a página dinâmica ou fazer uma animação quando se clica em um botão) e faz, então, um “bloqueio cirúrgico” somente do código usado para fuxicar seu histórico.
O Privacy Badger pode ser instalado no Firefox, no Chrome e no Opera.
Essas são apenas algumas ferramentas que mapeamos na tentativa de ilustrar formas como desenvolvedorxs e pesquisadorxs estão trabalhando para tentar vigiar quem nos vigia. Muitos outros exemplos também poderiam ser elencados, sendo que alguns deles podem até mesmo ser vistos como esforços duplicados. Cabe, portanto, ressaltar que, para além de baixar e testar algumas dessas ferramentas, e, dessa forma, fornecer dados para xs pesquisadorxs que estão tentando decifrar as caixas pretas das redes sociais, é necessário também que haja mais articulação entre todxs que estão desenvolvendo e analisando os dados coletados. A maioria dessas ferramentas tem divulgação limitada a determinados contextos, enquanto que a quantidade de dados necessários para um mapeamento representativo depende de mais gente usando as mesmas. Nesse sentido, o uso de tecnologias e metodologia compartilhadas ampliaria a capacidade de diagnosticar as práticas das empresas proprietárias das grandes redes sociais, e dimensionar melhor o impacto das mesmas nas nossas democracias.
Joana Varon, do Brasil, é diretora executiva da Coding Rights. Lucas Teixeira, também do Brasil, atua na diretoria de tecnologia da Coding Rights.