Imagine: um podcast de conversas inspiradoras para tecer futuros alternativos
#Colonialismo Digital #democracia #futuros especulativos #inteligência artificial #LGBTQIA #Monopólio das Big Tech #violência de gênero #violência políticaO primeiro episódio conta com a participação de Annette Zimmermann e Timnit Gebru para tratar de ideologias de Vale do Silício
Imagine é um podcast da Coding Rights que organiza uma série de conversas inspiradoras com mulheres e pessoas não-binárias de todo o mundo para especular sobre futuros alternativos. Nós conectamos ideias e pesquisas visionárias para partilhar conhecimentos e inspirações, na esperança de promover novas perspectivas sobre os desafios do presente. Com estes intercâmbios, queremos construir as ferramentas para tecer caminhos coletivos de esperança em direção a futuros melhores.
Neste episódio, falamos sobre as ideologias que orientam alguns dos CEOs e bilionários da tecnologia mais poderosos do Vale do Silício. Para esta conversa, convidamos Annette Zimmermann, Professora Assistente de Filosofia na Universidade de Wisconsin-Madison, que pesquisa ética e política da inteligência artificial; e Timnit Gebru, uma referência mundial por desafiar as práticas da Google no tema da IA, e fundadora do DAIR – Distributed AI Research Institute. Você já se perguntou sobre o que está por trás das ações de Musk e de outros magnatas da tecnologia na política? Sabe o que é o aceleracionismo efetivo? Ou longotermismo? Quando isso começou e onde pode nos levar?
Sabemos que tempos difíceis exigem análises aprofundadas em várias camadas de complexidade, e também exercícios de imaginação radical que nos ajudem a imaginar outras possibilidades de existência neste planeta. Está pronte para imaginar com a gente?
Imagine está disponível no Spotify e no YouTube.
Se gostar, por favor, compartilhe e considere apoiar a produção dos próximos episódios fazendo uma doação no Buy Me a Coffee.
Imagine é produzido pela Coding Rights. Na equipe, Joana Varon (Conceito e Produção), Juliana Mastrascusa (Conceito e Produção), Gabriela Brigagão (Conceito e Editora de Som) e Juliana R. (Editora de Som), Laila Almeida (Comunicação). O jingle foi uma colaboração com Joana Varon (Conceito), Mestre Lucas da Lapa (Timbal), e Tiago Caviglia (Sound Designer). Design visual de Marina Dahmer Bagnati. Para o primeiro episódio, contamos com o apoio da Internews e da Fundação Ford. Esperamos vê-los em breve no próximo episódio!
Transcrição traduzida do episódio está disponível aqui:
Imagine: um podcast para tecer caminhos de esperança em direção a futuros melhores. Bora imaginar?
Narradora: A tecnologia é sempre política, mas o que é que isso significa quando os grandes CEOs das empresas de tecnologia têm o poder de influenciar as questões políticas em todo o mundo?
Trechos de reportagens: “Elon Musk diz que a liberdade de expressão é a base da democracia e que um pseudo-juiz não eleito no Brasil está a destruindo para fins políticos.”
“Finalmente, vamos trabalhar com o presidente Trump para impedir que os governos de todo o mundo ataquem as empresas americanas e pressionem para censurar mais”, trecho da fala de Zuckerberg.
Narradora: Você já se perguntou o que está por trás das ações de Elon Musk e outros magnatas da tecnologia? Hoje, vamos explorar o panorama geral e as ideologias por trás de tudo isso. Por que é tão importante compreender essas ideologias e as tendências perigosas que têm circulado no mundo da tecnologia? Este é um Imagine, um podcast da Coding Rights que traz conversas inspiradoras para imaginar futuros, especular sobre tecnologias regenerativas e construir caminhos concretos para outros mundos mais justos. Neste episódio, Joana Varon vai nos guiar por conversas com mulheres que estão a analisando as ideologias que tomaram conta dos discursos do mundo da tecnologia. A nossa primeira convidada de hoje é Annette Zimmermann. Ela é filósofa política e trabalha com a ética e a política da inteligência artificial, da aprendizagem de máquina e de big data.
Joana: Oi Annette, obrigada por se juntar a nós. Estou muito feliz por te receber aqui…
Annette: Oi, Joana. É bom conversar com você.
Joana: Nós estamos falando de um contexto em que os bilionários da tecnologia, na verdade, as três pessoas mais ricas do planeta, Elon Musk, Jeff Bezos, da Amazon, e Mark Zuckerberg, da Meta, não só compareceram à tomada de posse de Trump, como ocuparam os lugares mais exclusivos, juntamente com outros CEOs da tecnologia, como a Google, a Apple e até a Tiktok.
Alguns dias antes, Zuckerberg anunciou mudanças na moderação de conteúdo de suas plataformas, deixando explicitamente que pessoas queer, mulheres e outras comunidades historicamente vulneráveis estão ainda mais sujeitas ao ódio. E também disse que vai se alinhar com Trump contra países que tentam regular a internet, fazendo menções implícitas ao juiz da suprema corte brasileira que bloqueou o X no país.
Trecho de reportagem: “Países latino-americanos têm tribunais secretos que podem ordenar que as empresas retirem as coisas do ar silenciosamente,” trecho da fala de Zuckerberg.
Joana: Bom, enquanto o TikTok foi temporariamente bloqueado nos EUA por razões político-econômicas, o Twitter, ou X, foi bloqueado no Brasil depois de Elon Musk ter decidido que a sua empresa não iria cumprir várias ordens judiciais do nosso Supremo Tribunal, incluindo um pedido para indicar um representante legal no país. A empresa também não cumpriu outros pedidos para bloquear contas de extrema-direita que incitavam a violência contra instituições democráticas brasileiras, o que inclui o nosso sistema eleitoral.
A interferência de Musk na geopolítica também tem sido relacionada às suas tentativas de aumentar os pontos de conectividade da Starlink em diferentes territórios, desde a Amazônia brasileira até a guerra na Ucrânia, entre outros cenários políticos.
Trecho de reportagem: Você está vendo 60 satélites disparando em direção ao céu. E nas próximas décadas, Elon Musk espera enviar 42.000 desses satélites para o espaço, 15 vezes o número de satélites operacionais em órbita atualmente. Isso faz parte da Starlink, a constelação expansiva de satélites de Musk e da SpaceX.
Joana: A maioria de nós já sabe que a tecnologia é política, mas esta parece ser uma tendência diferente e perigosa entre os chamados “tech bros”, uma tendência em que eles estão entrando mais fortemente na política global, sendo Musk o mais barulhento, mas não o único. Alguns poderão dizer que se tornaram republicanos, mas sei que estudos de filosofia política, como os que você faz, mostram um cenário mais complexo. Por isso, gostaríamos de convidar você a nos ajudar a traçar um panorama geral sobre as ideologias que estão por trás de tudo isso e porque é importante compreender essas ideologias. Para começar, queria lhe perguntar o que é effective altruism e longtermism, e quem são os principais embaixadores destas ideologias?
Annette: Talvez, para dar um pouco mais de contexto, penso que muitas pessoas costumavam olhar para o Vale do Silício como o epicentro de um certo tipo de liberalismo social, pelo menos a um nível superficial. Assim, as pessoas olhavam para o Vale do Silício e viam nerds liberais simpáticos que se preocupavam com a diversidade e a inclusão, pelo menos num sentido superficial. Mas, na verdade, essa imagem mudou radicalmente nos últimos anos. Agora, vemos muitos indivíduos poderosos da indústria tecnológica deslocarem-se de forma muito mais notória para a direita, incluindo a direita socialmente reacionária. E Musk é um ótimo exemplo disso, suas recentes declarações e o seu apoio a figuras como Trump. Outro exemplo disto é o Peter Thiel que escreveu ensaios sobre este tema, dizendo explicitamente que a democracia não tem valor e que, na verdade, deveríamos concentrar-nos apenas na inovação, que, de uma forma misteriosa e sombria, segundo ele, acabará por beneficiar até os cidadãos pobres e comuns.
Narradora: Peter Thiel é um bilionário que investe em diferentes tecnologias e também tem sido politicamente muito ativo.
Trecho de fala de Peter Thiel: Me parece que a IA é boa nos temas de Woke (woke é um termo político de origem que refere-se a uma percepção e consciência das questões relativas à justiça social e racial). Se você quiser ser bem sucedido, você deve ser um pouco racista ou sexista, ou apenas um pouco engraçado, para não correr o risco de ser substituído pela IA. Todos os outros serão substituídos.
Annette: Vemos também alguns movimentos filosóficos que, originalmente, não tinham nada a ver com a tecnologia e que, de repente, estão ganhando muita força. O effective altruism é um exemplo disso. O effective altruism é uma visão filosófica e, ao mesmo tempo, um movimento político que nasceu de uma perspetiva filosófica específica. Essa perspetiva filosófica chama-se consequencialismo. Assim, os consequencialistas pensam que a única coisa que importa moralmente e politicamente, por extensão, é que se maximizem os bons resultados associados às nossas decisões. Assim, na perspetiva consequencialista, respeitar os direitos das pessoas ou ter relações sociais igualitárias não tem qualquer importância se isso não maximizar bons resultados. E os effective altruists usaram essa base filosófica: para sermos verdadeiramente altruístas, devemos ser maximamente eficazes quando o fazemos.
Assim, este movimento cristalizou-se como um movimento que visava basicamente dar às pessoas ferramentas para fazerem apenas contribuições caritativas maximamente eficientes, levando muitas vezes os altruístas eficazes a doar uma grande quantidade dos seus recursos para combater problemas globais, como a malária, por exemplo. Isto soa muito bem, mas o ponto crucial aqui é que o effective altruism também encoraja os seus seguidores a aceitarem empregos muito bem pagos no sistema financeiro e em indústrias semelhantes, para que possam doar muito mais dinheiro. De certa forma, isso te dá um curativo rápido e fácil, uma falta solução superficial para problemas complexos. Em vez de fazer perguntas mais profundas sobre que tipo de estruturas conduzem realmente à marginalização e à exclusão.
Você pode estar ouvindo isso e pensando: “Está bem, mas doações de caridade não têm nada a ver com tecnologia.” E se pensou assim, sim, é verdade. Mas, na verdade, recentemente, os effective altruists tem concentrado quase toda a sua atenção na IA. De maneira que passaram de um grupo de pessoas que querem mitigar problemas globais como o da malária para um grupo de pessoas que estão imensamente preocupadas com a IA representar um risco existencial para a humanidade. Segundo eles, não estaremos bem servidos se nos concentrarmos em questões do presente. O que devemos fazer, de acordo com os effective altruists e longtermists, é desviar toda a nossa atenção para um hipotético futuro distante em que a IA se torna tão poderosa e sofisticada que pode acabar com a humanidade. Assim, algumas pessoas no Vale do Silício recentemente combinaram esta lógica de longotermismo com um conjunto de ideias políticas de direita.
E o movimento que emergiu daí é algo chamado effective accelerationism, ou aceleracionismo efetivo. Quem segue esta ideologia não estão está preocupado com a segurança da IA. Na verdade, pensam que não devemos fazer nada para travar a inovação da IA. Devemos acelerá-la, porque pensam que a IA vai, no final das contas, melhorar a vida humana, ou de alguns humanos. .
Trecho fala Peter Thiel: A principal forma de crescimento da nossa economia é através da inovação, através de ganhos de produtividade. Por isso, se não houver inovação, não haverá crescimento. E eu não acredito que o nosso sistema representativo de democracia funcione sem crescimento.
Annette: Por isso, eles não têm dúvidas de que a IA é diretamente uma coisa boa, mesmo que exiba preconceitos massivos e que, na verdade, reforce grandes disparidades sociais. Por isso, não se importam que os bilionários da tecnologia fiquem com a grande parte dos lucros associados à inovação da IA. Eles pensam que, em última análise, de alguma forma, esses benefícios irão repercutir na economia e na sociedade. Mas não existe um verdadeiro plano para atenuar as desigualdades, a pobreza extrema, o racismo estrutural, etc. Então, efetivamente, essa ideologia se sente confortável em deixar as pessoas que são privadas de direitos e marginalizadas a se defenderem por si próprias.
Joana: Obrigada pela sua excelente explicação. E eu me pergunto se, ao emergir das opiniões da extrema-direita, eles também são negacionistas das alterações climáticas? Ou seja, isso também significa que eles compactuam com uma aceleração rumo ao colapso climático?
Annette: Os effective accelerationists diferem quanto às questões políticas que priorizam, mas o que os une é a falta de preocupação com os danos que ocorrem agora e no futuro próximo, e que são suportados predominantemente por apenas uma parte da sociedade. Esta é uma ideologia que se sente confortável com sacrifícios massivos e com desigualdades e injustiças massivas, porque é movida pela esperança de que a elite que vê os benefícios desta nova tecnologia mágica acabe por alcançar um status quo ainda melhor. Também vale a pena notar que os fundamentos ideológicos do effective accelerationism têm laços bastante explícitos com o pensamento de extrema-direita. O manifesto Tecno-Otimista de Mark Andriessen cita com bastante aprovação um manifesto fascista italiano do início do século XX sobre o papel da tecnologia na higienização da sociedade. Esta não é uma ideologia que tenta tornar a sociedade mais livre e mais igualitária. É uma ideologia que está orientada para ampliar e consolidar o poder das elites sociais atualmente existentes. Na verdade, é uma ideologia que pressupõe que há apenas algumas pessoas que estão melhor posicionadas para fazer julgamentos realmente importantes sobre os objetivos que devemos perseguir quando concebemos e utilizamos a tecnologia.
Joana: Quando você estava falando sobre uma ideologia que busca amplificar o poder das elites, a imagem que veio à minha mente foi a foto com todos os CEOs das Big techs na posse do Trump. Você teria algumas outras indicações de como as pessoas podem perceber essas ideologias, seja nas suas interações diárias com a tecnologia ou vendo as notícias? E quais seriam as estratégias possíveis para enfrentar esta tendência, para mudar este caminho em direção aalgo diferente, melhor para todo mundo?
Annette: Sim, penso que a primeira coisa que precisamos de fazer é questionar esta ideia de aceleração rápida como um conceito. Penso que o que as pessoas têm relutância em fazer quando se trata de política de IA é enquadrar a política de IA como algo em que os cidadãos comuns podem efetivamente participar. Existe um tipo estranho de excepcionalismo em relação à política de IA, em que as pessoas pensam que os cidadãos podem tomar decisões sobre todo o tipo de assuntos complexos, certo? Por exemplo, quando votamos numa eleição, temos em mente temas complexos como os cuidados de saúde e as alterações climáticas, mesmo que não sejamos cientistas do clima ou médicos. Mas quando se trata de IA, penso que muitas pessoas sentem que não podem ter uma opinião sobre isso porque não são da área. É por isso que muitas pessoas optam por não questionar explicitamente estas ideias perigosas, como a escala e a velocidade sem limites, porque pensam: “Bem, isto não é algo em que eu tenha conhecimento suficiente”, e eu penso que temos de combater isso.
Joana: Certo.
Annette: Nós vimos em muitos outros domínios políticos que os especialistas altamente qualificados não são os únicos que podem tomar boas decisões políticas e morais sobre a visão da sociedade a que queremos aspirar. Também acho que cidadãos comuns, que não estão de forma alguma envolvidos ativamente nesses movimentos, também têm a responsabilidade de realmente tomar para si esse poder de decisão e reconhecer que têm ferramentas para resistir a isso, nomeadamente buscando diferentes formas de participação política que questionem esses conceitos.
Joana: Totalmente. Essa questão está muito presente na Coding Rights. Sempre gostamos de dizer que somos todas hackers. Temos hackeado o patriarcado todos os dias. Então, todo mundo deveria poder se engajar nestes debates sobre tecnologia.
Temos que encerrar nossa conversa por aqui, Annette. E sei que você vai lançar um livro sobre alguns destes temas, certo? Então, para finalizar, pode nos dar algumas informações sobre o livro, para ficarmos atentas e continuarmos a seguir esse assunto?
Annette: Sim, excelente. Estou agora terminando um livro chamado Democratizing AI Deployment, no qual, entre outras coisas, destaco estes novos desenvolvimentos ideológicos diferentes no Vale do Silício. Mas também falo com mais especificamente sobre os tipos de mecanismos políticos que estão realmente disponíveis para democratizar o espaço de uma forma ascendente. Esse livro será lançado na primavera e gostaria muito que o público do podcast possa ler!
Joana: Perfeito, terminamos nossa conversa com esse convite. Fiquem atentas, o livro da Annette será lançado na primavera no hemisfério norte e no outono para nós aqui no sul, muito obrigada Annette!
Narradora: E agora, vamos diretamente para outra conversa, desta vez com Timnit Gebru. Timnit é uma das pesquisadoras mais interessantes para entender criticamente o poder das Big Tech, os impactos sociais e ambientais da inteligência artificial, e refletir sobre as tecnologias sob a perspectiva de pessoas de comunidades marginalizadas. Ela fundou o Distributed AI Research Institute, um instituto de pesquisa interdisciplinar em IA.
Joana: Olá, Timnit. Obrigada por se juntar a nós.
Timnit: Obrigada por me receberem.
Joana: Acabamos de conversar com a Annette Zimmermann sobre as ideologias, o effective altruism e o efective accelerationism, expondo os vínculos dessas ideologias com o pensamento de extrema direita e até mesmo as relações com manifestos fascistas que vislumbraram as tecnologias como tendo o papel de higienizar a sociedade. E falamos sobre como essas ideologias não se importam em ampliam as desigualdades sociais ou causar perdas humanas massivas, pois funcionam na esperança de que algumas poucas pessoas privilegiadas, as mesmas encarregadas do desenvolvimento tecnológico, alcancem um status ainda mais privilegiado no futuro de longo prazo. Então, na verdade, você foi a primeira pesquisadora que ouvi falar sobre effective altruism e que abriu minha mente sobre isso. Vindo de uma formação em ciência da computação, como você percebeu pela primeira vez essas ideologias e como isso afeta seu trabalho?
Timnit: A primeira vez que ouvi falar sobre effective altruism, acho que foi em 2012 ou 2013. Eu estava conversando com alguém, ou talvez antes, não me lembro, mas me falaram sobre a ideia de usar dados para doar seu dinheiro como parte da filantropia ou algo assim. E a ideia toda me fez revirar os olhos. Mas não pensei muito sobre isso. Mas então outra pessoa me falou sobre uma conferência de effective altruism. E acho que isso foi talvez em 2012, não me lembro, talvez em 13, em algum momento nessa época. E eles disseram que Peter Thiel seria o orador principal. Eu pensei: “Como as palavras altruísmo e Peter Thiel podem caminhar juntas?”. Na época, já sabíamos que se tratava de um fascista. E então eles continuaram a falar comigo sobre como todo mundo precisa se concentrar em IA. Eu perguntei: qual a relação entre altruísmo e IA? Então, eles disseram, e esta foi a primeira vez que ouvi esse argumento, de que mesmo que haja uma probabilidade realmente, realmente baixa da IA destruir o mundo, se isso acontecer, pode destruir toda a humanidade. Então, deveríamos concentrar toda a nossa energia em evitar essa potencial catástrofe. E eu simplesmente não conseguia acreditar nisso. Mas, sabe, ainda não era um movimento tão proeminente, nem uma visão tão destacada na minha área. Era algo mais como pessoas que eu conhecia aqui e ali, e eu conseguia me distanciar disso. Quando a OpenAI surgiu, foi realmente quando comecei a notar essa visão ganhando força.
Então, mesmo no campo de IA, as pessoas costumavam zombar de pessoas como Elon Musk, sabe? Quando ele falava sobre superinteligência e tudo mais, não era uma visão dominante. Mas quando a OpenAI foi anunciada, vi uma grande mudança porque agora eles têm essa mistura de potências: as pessoas do Vale do Silício que estão muito bem conectadas, como Sam Altman e o ecossistema da aceleradora Y Combinator, e as pessoas de uma subespecialidade da IA chamada de deep learning, como Ilya Sutskever e outros. Sabe, Geoff Hinton foi coroado o padrinho da IA e aparentemente recebeu o Prêmio Nobel agora.
Trecho fala de Geoffrey Hinton: “Fico muito satisfeito que o mundo esteja começando a levar isso a sério. Então, em particular, eles estão começando a levar a ameaça existencial a sério, de que essas coisas vão se tornar mais inteligentes do que nós, e precisamos nos preocupar se elas vão querer tirar o controle de nós. Isso é algo sobre o qual devemos pensar seriamente. E agora, as pessoas levam isso a sério. Há alguns anos, elas achavam que era apenas ficção científica.”
Timnit: Portanto, essa foi uma combinação explosiva. Então, eu vi essa explosão e todos estavam falando sobre essas pessoas. Se olharmos para a grande mídia de quando a OpenAI foi fundada, tudo girava em torno de como eles estavam salvando o mundo da catástrofe que poderia ser causada pela inteligência artificial, e como eles eram melhores que o Google, porque estavam preocupados com o fato de uma corporação estar no controle de algo tão poderoso, etc. Mais tarde, depois que fui demitida do Google por escrever esse artigo sobre os perigos dos modelos de linguagem de grande porte. Naquela época, comecei a ver alguns dos escritos dos effective altruists e pensei: isso realmente parece eugenia para mim. Não estou fazendo uma análise científica disso, mas, tipo, isso tem um sabor eugênico, como “vamos maximizar essa utilidade e vamos maximizar algum tipo de felicidade, e vamos decidir, com base em dados, para quem vale a pena dar dinheiro.” Não vamos doar para o meu vizinho que está morrendo ao meu lado, sabe… E eu pensei, essas pessoas parecem eugenistas. E todas essas pessoas começaram a me atacar. Então, eu encontrei os escritos de Émile P. Torres sobre o Longtermism. Foi a primeira vez que ouvi o termo longtermism. Então comecei a perceber as conexões. Sim, tipo, as pessoas da OpenAI estão todas nisso.. Espaço, etc.
Trecho da fala de Elon Musk: E vamos levar o Doge para Marte. Imagina como seria fantástico ter astronautas americanos colocando uma bandeira em outro planeta pela primeira vez?
Timnit: Então, eu perguntei à Émile se poderíamos colaborar em um artigo que descrevesse as conexões eugênicas da inteligência artificial geral. Sabe, toda essa questão da AGI, porque foi isso que eu percebi com a OpenAI. Mas eu não pensei que a conexão fosse tão direta, tipo, literalmente direta, sabe, do eugênico ao transhumanismo. Mas eu sabia que eram todas as terminologias que eles estavam usando. As análises que estavam usando eram assim. Então, quando comecei a trabalhar nesse artigo, ficou tudo muito claro. E nós conseguimos apresentar uma análise que pudemos então enviar para outras pessoas. Chamamos isso de “tescreal bundle”, os transhumanistas, altruístas eficazes, longotermistas, e algumas de suas ideologias relacionadas. O termo estava até na Wikipedia, que chegou a ser tirado por ar pelos affective altruists, mas depois voltou. E então, tentaram novamente fazer com que fosse retirado, mas agora não conseguiram.
Joana: Uau. Isso é algo. Então, para as pessoas que estão ouvindo, o “tescreal bundle” é um conceito, pode ser conferido na Wikipedia. Ou melhor, no artigo original, intitulado “The Tescreal Bundle: Eugenics and the Promise of Utopia throughout Artificial General Intelligence.” E falando sobre junções explosivas… com a eleição de Trump, um dos promotores mais proeminentes de algumas dessas ideologias, Elon Musk, tornou-se uma figura chave entre seus aliados políticos. E ironicamente, agora ele pode adotar papéis relacionados ao suposto aumento da eficiência governamental. Eficiência governamental. Quais são suas opiniões sobre isso? O que poderia dar errado? Alguém com alguma afinidade com o longtermismo e altruísmo eficaz trabalhando para discutir e implementar a eficiência governamental. O que poderia dar errado?
Timnit: A razão pela qual criamos o termo foi que os perfils não necessariamente se encaixam perfeitamente em uma dessas categorias. Então, eu não acho que Elon Musk seja um altruísta eficaz, mas ele está muito nesse espaço. E eu não acho que ele seja tão claramente, tipo, ele pode ser um longtermista, mas nem todos os longtermistas são altruístas eficazes. Então, foi por isso que tivemos que criar esse “pacote”, porque precisávamos explicar situações do tipo: lembra quando Sam Altman se envolveu com o altruísmo eficaz, mas depois fez outra coisa?, e eu pensei, bem, isso é muito confuso. Então agora você tem esse cara que, eu preciso dizer, a mídia o construiu. Há mais de dez anos atrás, quando Elon Musk não era tão famoso quanto é agora, só a mídia o estava elevando. E eu me lembro quando ele foi a um show de comédia noturno e os apresentadores estavam tipo: “Uau, você é um gênio! Você trabalhou nisso, e naquilo, como você consegue ser tão genial?” Ou mais recentemente, um dos fundadores do movimento do altruísmo eficaz, William MacAskill, que tem um livro chamado “What We Owe the Future”, estava em um show de comédia progressista, tipo The Daily Show nos Estados Unidos com Trevor Noah. E Trevor Noah estava tipo: “uau, você só vive, sabe, você só precisa gastar $30.000 por ano com sua vida.” Só bajulando ele. Você pensa: “Jesus Cristo, esse cara conseguiu estar naquele programa porque tem gente movendo os pauzinhos.” Sabe, tem um agente de relações públicas que permite. Ouvi dizer que ele recebeu 10 milhões de dólares só para promover um livro. Sabe, os altruístas eficazes tinham um castelo que custou 20 milhões de dólares. Sabe o que quero dizer? E então você tem a mídia mainstream fazendo isso na chamada mídia progressista, ou na mídia mainstream de tendência liberal. E então isso é a mesma coisa com Elon Musk. Eles basicamente o construíram. Construíram esse cara que agora é um monstro e eles não sabem o que fazer com ele. E agora nós estamos com esse cara que controla o Twitter, certo? Ele tem um megafone. E acho que o Twitter também tem grande responsabilidade nisso. Ele foi uma das contas mais recomendadas quando o Twitter não estava sob seu controle. Então sabemos exatamente quais são suas opiniões. E agora, esse monstro que foi criado, que tem mais influência do que a maioria, até mesmo do que os governos mais poderosos do mundo, está no controle de tornar o governo mais eficiente. E o que isso significa, né? Como todos sabem, na linguagem eugenista, eficiência é sempre higienismo racial. Eficiência, argh… melhorar as coisas… Perfeição… Não tenho certeza do que está por vir, mas com certeza não é algo bom.
Narradora: Para os ouvintes, devo informar que em algumas semanas depois que fizemos essa entrevista, uma das primeiras medidas de DODGE ou do Departamento de Eficiência de Governança foi fazer com que as agências de fomento ao desenvolvimento dos EUA rescindissem abruptamente os contratos que trabalhavam com diversidade, equidade e inclusão.
Joana: Outro dia eu estava com uma amiga, logo após as eleições nos EUA, e ela comentou: “Oh, este é um momento tão difícil para continuar sonhando”. E eu disse: “Não, não, não, precisamos continuar sonhando. Este é um aspecto muito importante das nossas liberdades”. E então este podcast se chama Imagine porque também é sobre buscar alternativas para esses tempos desafiadores em que estamos. E eu sei que parte do seu trabalho no DAIR é sobre imaginar e moldar futuros tecnológicos alternativos. Então, você poderia falar um pouco sobre isso e como podemos transicionar deste contexto atual um tanto distópico para futuros tecnológicos que queremos?
Timnit: Sim. Sabe, a Ruha Benjamin tem este livro chamado Imagination: A Manifesto. E eu acho que é muito importante porque, quando eu estava lendo o que essas pessoas escreviam, eu ficava tão irritada, tipo, por que estou gastando meu tempo lendo tudo isso? Sabe, eu tenho coisas melhores para fazer. Então, o que foi útil para mim foi realmente entender a ideologia deles e por que eu me oponho a isso. Certo? E também entender como eles são bons em vender sua visão e conseguir seguidores. Então, a visão deles não é ser contra algo, é ser a favor de algo. E o que eles defendem é muito… é aterrorizante. O mundo em que eles estão é aterrorizante. O mundo que eles querem é aterrorizante. Mas eles pintam um quadro desse mundo para você. Nick Bostrom tem uma carta chamada Letter from Utopia. E ele escreve sobre como seria a utopia para ele, ou os transhumanistas falam sobre, tipo, se você deixar a biologia para trás, você nunca sentirá dor, você viverá para sempre, sabe, porque eles também querem viver para sempre. E isso é aterrorizante para mim. Eu não consigo imaginar alguém vivendo para sempre, especialmente essas pessoas. Então, sim, nós queremos, mas é muito difícil, quando você está apagando incêndios, como você disse, criar espaço para imaginar.
Então, para a nossa equipe, o que eu fiz foi criar uma série chamada The Possible Future Series para nos tirar desse estado de não imaginar. E foi realmente interessante porque, mesmo assim, pudemos ver como é difícil para as pessoas não começarem a partir do status quo. Eu disse: “Ok, se estamos atualmente em um status quo onde todos temos que comer no teto ou algo assim.” Acho que eu disse isso no nosso workshop, e não conseguimos imaginar não comer no teto. Temos que fazer coisas do tipo colar as mesas no teto para que não caiam, subir escadas. Estamos apenas fazendo isso e não pensando: “Por que estamos fazendo isso?” Ou quando queremos melhorar nossas experiências, pensamos: “Ok, como podemos nos manter seguros nesse cenário?” E pensamos: “Talvez possamos usar capacetes enquanto comemos para que, se a gente cair, tudo bem”. E a ideia de que talvez não devêssemos fazer essa coisa de comer no teto se torna tão, tão bizarra. Por que não comemos no chão? Tipo, isso é mais seguro e mais fácil. Sabe, isso é um salto muito diferente, certo? É uma ideia muito diferente do que tentar melhorar incrementalmente o que você tem agora.
E para fazer esse salto, temos que exercitar esse músculo mental e nos dar espaço para imaginar diferentes tipos de possibilidades. Então, esse é o tipo de exercício que estamos fazendo. Claro, não é fácil. Então, escrevemos pequenos textos especulativos, acompanhados de algumas ilustrações. Temos textos como um chamado An Internet for Our Elders. Eu estava pensando em como seria uma internet que minha avó teria adorado. Sabe, ela não falava inglês, não lia, nem escrevia em nenhum idioma. Ela vivia em um país onde o governo pode desligar a internet quando quiser. E o percentual de conexão de internet é muito baixo. Então, como seria para ela ter uma experiência online? Ou talvez nem isso. A resposta poderia ser simplesmente não estar online. O que significa ter uma experiência online que lhe daria alegria, que ela pudesse usar sem problemas, mas que a colocasse no centro? Então, esses são os tipos de exercícios que estamos tentando fazer. E estamos tentando descobrir, sabe, acho que é uma forma diferente de comunicação e um músculo diferente.
Acho que dei um exemplo outro dia de que, quando falamos sobre uma sociedade com menos carros, mais transporte público, etc., uma maneira de descrever isso poderia ser: “Olhe para a catástrofe climática, olhe para a poluição, olhe para o trânsito”. E essas coisas são ruins. Então, não deveríamos ter carros. Outra maneira é pintar um quadro de como seria o mundo sem carros ou com o mínimo deles. Como seria o seu bairro? Você sai de casa e não há ruas grandes. As crianças estão brincando. Você talvez se comunique mais com seus vizinhos porque pode ter cadeiras e jardins onde as ruas estariam. Sabe o que quero dizer? Essa é uma maneira diferente de comunicar sobre ter menos carros. E você pode respirar ar fresco, porque estamos pintando um quadro de como seria esse mundo. Então, acho que devemos praticar mais isso.
Joana: Oh, isso é tão bonito. Se minha avó estivesse viva, aposto que a internet que ela gostaria seria totalmente cheia de música ou, na verdade, centrada na música. Compartilhamento de música. Produção musical. Definitivamente não este ambiente que é egoísta, individualista e propenso a muito ódio.
Timnit: Isso soa muito bom. Sabe, acho que devemos todos praticar pensar sobre isso e também comunicar dessa forma, construindo um movimento em torno da realização dessas visões, em vez de apenas ser contra algo. Certo? Temos que descrever o que somos a favor.
Joana: Muito obrigado. Foi muito inspirador.
Obrigada por ouvir. Espero que esta conversa tenha inspirado você a avaliar mais profundamente algumas das razões por trás de coisas estranhas que estão liderando nosso desenvolvimento tecnológico e afetando a política global. Mas também foi uma tentativa de inspirar você a imaginar, a visualizar diferentes caminhos como algo que também pode ser construído.
Você acabou de ouvir o Imagine. Este episódio do podcast contou com entrevistas de Annette Zimmermann e Timnit Gebru e audios da BBC News, Wall Street Journal, The Merge TV, TCOX e trechos das palestras do Peter Thiel.
O podcast Imagine é produzido pela Coding Rights. Este episódio contou com apoio da Internews e da Ford Foundation. Eu sou Joana Varon e junto comigo na equipe do Imagine temos Juliana Mastrascusa, Gabriela Brigagão e Juliana R. Para o jingle também tivemos Aa colaboração de Mestre Lucas da Lapa e Tiago Caviglia. Obrigada por ouvir. Se você gostou, compartilhe e considere nos ajudar a produzir outros episódios doando para o Podcast Imagine no Buy Me a Coffee. Esperamos ver você em breve!
Imagine: um podcast para tecer caminhos de esperança em direção a futuros melhores. Bora imaginar?