Inteligência Artificial: Retrospectiva 2023 e o que está por vir
#blogpost #inteligência artificial #proteção de dadosTodo mundo quer falar de IA, mas como regular?
Joana Varon
Vamos chegando ao fim de 2023 com novidades importantes no campo da regulação da Inteligência Artificial, que apontam caminhos do que está por vir em 2024 e dos desafios que vão continuar se impondo, principalmente em países do Sul Global. Esse texto traz uma revisão do que aconteceu no debate regulatório de União Européia, EUA e China, e como estamos no Brasil, inclusive em relação ao ritmo de andamento do debate legislativo vs implementação de IA no setor público do país.
Nas Europas…
É de onde vêm as notícias de peso mais recentes: na última sexta-feira, dia 8 de dezembro, os países da União Europeia alcançaram um acordo político com o Parlamento Europeu sobre uma Lei de Inteligência Artificial (AI Act). Os debates da regulação vêm desde 2018, com a publicação da Iniciativa da Europeia em IA, e a consulta ao texto específico teve início em 2021. Agora, o que se segue é esboçar tecnicamente os termos do acordo, que ainda precisa ser aprovado formalmente no Parlamento e no Conselho Europeu.
No centro tanto da estratégia como da legislação europeia, está o fomento ao mercado de IA na região, que busca a intensificação da digitalização de todas as áreas da vida, um caminho dado como de não retorno. Nesse sentido, em primeiro lugar estão o mercado e a competitividade, em seguida o debate de riscos, tudo isso em detrimento de uma concepção que partisse de uma análise de fomento e proteção a direitos fundamentais. No comunicado em que anuncia a estratégia de IA, o texto dá destaque aos planos de China e Estados Unidos, e compara os investimentos desses países em contraposição aos da União Europeia, expressando uma preocupação em ficar para trás nessa “corrida”. No esboço do AI Act, também têm destaque as “vantagens competitivas que a IA pode promover para empresas e pela a economia europeia” e a contraposição a isso são riscos no uso da IA, não diretamente uma menção a direitos fundamentais como ponto de partida. O texto mais atual, que ainda deve ser editado após o acordo político, destaca, ao contextualizar a necessidade de sua aprovação, que: a “proposta apresenta uma abordagem regulatória de IA que é horizontal, equilibrada e proporcional, que se limita aos requisitos mínimos necessários para lidar com os riscos e problemas relacionados à IA, sem restringir ou impedir indevidamente o desenvolvimento tecnológico ou aumentar de forma desproporcional o custo de colocar soluções de IA no mercado.” O primeiro objetivo da proposta é “melhorar o funcionamento do mercado interno, estabelecendo uma estrutura jurídica uniforme, em especial para o desenvolvimento, a comercialização e o uso da inteligência artificial, em conformidade com os valores da União.” Na mesma linha, o artigo 1 traz como objeto da lei: “regras harmonizadas para a colocação no mercado, a colocação em serviço e o uso de sistemas de inteligência artificial na União.”
Para fazer isso, de maneira geral, o texto está estruturado basicamente para propor uma aplicação uniforme para a IA na região, trazendo uma definição comum: a proibição de determinadas práticas habilitadas pela IA e classificação de determinados sistemas de IA de acordo com o risco, o que irá acarretar em diferentes níveis de obrigações. O texto parte de uma definição de inteligência artificial bem genérica, que diz considerar “a prova de futuro”: “software desenvolvido com uma ou mais das técnicas e abordagens listadas no Anexo I e que pode, para um determinado conjunto de objetivos definidos por humanos, gerar resultados como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais interagem;”. Por essa definição, o Anexo I da lei, que lista técnicas de IA, tem sido fonte de controvérsias e disputas. Assim como o Anexo III, que lista sistemas de IA considerados de alto risco. De acordo com o AI Act, diferentes tipos de riscos podem levar ao banimento da comercialização, ou a mais obrigações, inclusive de monitorar a implementação de seus sistemas depois de comercializá-los (post-marketing monitoring).
Interessante notar que o texto foi mais permissivo quando se trata de IA implementada visando cidadãos não-europeus, pois não baniu sistemas considerados de alto risco quando a aplicação é para fins de políticas de migração. Outras exceções ao uso de tecnologias de alto risco também foram previstas para contextos de segurança nacional e aplicação da lei (law enforcement). Por outro lado, de maneira positiva a Europa baniu sistemas de policiamento preditivo, sistemas que categorizam pessoas com base em dados sensíveis (como preferência política e orientação sexual), e sistemas que reconhecem emoções a serem usados em locais de trabalho ou escolas. Mas as exceções mencionadas acima deixam espaço para o uso de sistemas de reconhecimento de emoções em pessoas refugiadas que buscam asilo, bem como reconhecimento facial em tempo real nos espaços públicos, o que a princípio seria proibido, mas passa a ser permitido com a exceção de law enforcement, em caso de busca de uma pessoa suspeita de ter cometido algum crime.
O texto também traz o que considera previsões de fomento à inovação por meio de sandboxes regulatórias para IA nos estados membros. Sandbox é um termo que vem do mercado financeiro e diz respeito a abrir uma brecha regulatória para que empresas testem seus serviços em ambientes controlados, sujeitas a menos restrições. Por fim, no capítulo sobre governança, o texto estabelece um Conselho Europeu de Inteligência Artificial que vai funcionar juntamente com autoridades nacionais competentes para fiscalizar a implementação. Esta lei entrará em vigor 20 dias após sua publicação, o que deve ocorrer no início de 2024.
Como uma lei impulsionada para fomentar o mercado de IA na região, fica a dúvida de como as disposições mais protetivas serão implementadas na prática, e até que ponto as grandes empresas de tecnologia conseguirão contorná-las, para além do que já contornaram. Essa manobra deve ocorrer principalmente com estratégias de lobby para seguir influenciando a lista do anexo III, que enumera sistemas de alto risco, mas também na maneira como prestam contas ao responder às várias obrigações de transparência e avaliação de impacto, já que no setor preponderam práticas de ethics washing. Por fim, uma questão chave, a do impacto ambiental dessas tecnologias, ficou relegada a Códigos de Conduta, ou seja, comprometimentos voluntários das empresas, também cada vez mais famosas por greenwashing.
Ainda assim, quando a Presidente da Comissão Europeia, Ursula von der Leyen, celebrou o acordo, reforçou a vontade de expandir as terminologias da lei européia para outras jurisdições, almejando o efeito Bruxelas, que no campo das tecnologias já observamos com a General Data Protection Regulation (GDPR), que inspirou nossa lei de proteção de dados (LGPD). Der Leyen declarou: O AI Act da União Européia é a primeira legislação abrangente sobre Inteligência Artificial em todo o mundo. Portanto, este é um momento histórico (…) Nosso AI Act fará uma contribuição substancial para o desenvolvimento de regras e princípios globais para a IA centrada no ser humano.” Em carta aberta acolhendo o acordo a Comissão Européia declarou: “Para promover regras sobre IA confiável em nível internacional, a União Europeia continuará a trabalhar em fóruns como o G7, a OCDE, o Conselho da Europa, o G20 e a ONU.”
Corrida pela IA
Vale lembrar que as legislações abrangentes de IA se desenvolvem em um contexto de competição e disputa entre empresas de poucos países, principalmente, EUA e China. Nesse sentido, o ano foi marcado por cartas e declarações de líderes da indústria pedindo de maneira hipócrita uma pausa no desenvolvimento das AI, sob o argumento sensacionalista do “risco existencial” para a humanidade. Pausa que nunca iriam, nem eles mesmos, implementar. Mas diante dessas cartas, o que se seguiu foi que esses mesmos líderes da indústria passaram a ser diretamente consultados pela Casa Branca e outros espaços de poder do Norte Global para a confecção de regulação com objetivo de combater esse tal “risco existencial”. Acordos e regulações que, por sua vez, passam a adotar a terminologia da indústria, com termos como “safe”, “secure”, “trustworthy”, “ethical”, “human centered”.
Assim, ficam em segundo plano questões ambientais, laborais, de vieses algorítmicos e de diversidade cultural, bem como os riscos de se desenvolver IAs apenas sob a ótica do monopólio de Big Techs do Norte Global. O lobby dessas empresas, a teoria de um remoto risco existencial, bem como a corrida para fomentar as respectivas indústrias nacionais ou regionais, afasta essas questões estruturais do foco regulatório, como bem ressalta a carta publicada por pesquisadoras da Maioria Global.
Nos EUA…
Depois dos encontros de Biden com líderes da indústria, aprovou-se no final de outubro uma Ordem Executiva sobre Inteligência artificial segura, protegida e confiável, estipulando uma série de recomendações para diferentes agências do governo estadunidense em uma ampla variedade de temas, que vão desde desinformação, à privacidade e cibersegurança. Se essas ordens serão implementadas e/ou servirão de base de regulação, é algo a se observar no decorrer de 2024, particularmente porque as recomendações são bastante extensas e diversas, requerendo bastante ação dos órgãos de governo.
Na China…
Como o plano ‘Next Generation Artificial Intelligence Development Plan’, a China visa a liderança global em IA com a meta em 2030 e, para tanto, está fazendo investimentos massivos. O país vem implementando uma série de regulações desde 2021, sendo as mais importantes: a regulamentação de 2021 sobre algoritmos de recomendação, as regras de 2022 para deep synthesis (conteúdo gerado sinteticamente) e as regras de 2023 sobre IA generativa. Ou seja, o país caminha no sentido de desenhar uma série de regulações de IA que são mais focadas nos tipo de ferramentas. Há quem diga que assim a China prepara sua burocracia para próximos passos regulatórios.
No Brasil, rumo ao G20…
No Brasil, que sediará o G20 em novembro de 2024, o debate por uma lei abrangente que trate de sistemas de Inteligência Artificial também vem de anos. No decorrer de 2023, o Projeto de Lei 2338/2023, de autoria do senador Rodrigo Pacheco (PSD-MG), era nosso foco de debate. O texto tomou como base a proposta resultante dos trabalhos da Comissão de Juristas do Senado Federal (CJSUBIA), instaurada de maneira temporária em 2022 com a missão de estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. Seu objetivo final era a elaboração de uma minuta de substitutivo que iria instruir a apreciação de projetos de lei anteriores sobre o tema: os Projetos de Lei nº 5.051, de 2019, nº 21, de 2020, e nº 872, de 2021.
Depois de uma série de painéis e uma consulta pública, dos quais a Coding Rights fez parte, a CJSUBIA terminou seus trabalhos em dezembro de 2022, entregando uma minuta que tentava se sustentar em três pilares: garantia de direitos às pessoas afetadas por sistemas de inteligência artificial (Capítulo II); categorização de riscos do sistema (Capítulo III) e a governança dos sistemas de IA (Capítulo IV). A exposição de motivos da minuta, ao contrário do texto europeu, se centra numa terminologia de direitos, ressaltando que tais previsões também fomentam um ambiente de segurança jurídica para inovação e desenvolvimento tecnológico. Como bem destaca: “este substitutivo de projeto de lei parte da premissa de que não há um trade-off – uma escolha mutuamente excludente – entre a proteção de direitos e liberdades fundamentais, da valorização do trabalho e da dignidade da pessoa humana face à ordem econômica e à criação de novas cadeias de valor.” A CLT e as leis de direito do consumidor são mencionadas como outras leis que enfrentam o mesmo tipo de desafio. A minuta também destaca que seu objetivo normativo é “conciliar uma abordagem baseada em riscos com uma modelagem regulatória baseada em direitos.” Há, portanto, também uma abordagem de risco, mas principalmente para dar conta do tipo modelo de responsabilidade civil do fornecedor ou operador do sistema, ou seja, para resguardar a proteção de direitos. Assim, no artigo 1º da minuta temos: “Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.” E o artigo segundo também destaca vários direitos fundamentais, além da proteção ao meio ambiente.
Após estabelecer direitos, de maneira semelhante à previsão europeia, a minuta estabelece no capítulo III um sistema de categorização de riscos, onde veda a implementação de sistemas de IA que ofereçam riscos excessivos, e lista sistemas de alto risco, que terão obrigações de avaliação de impacto e práticas de governança distintas, destacando que ambas as listas podem ser atualizadas, de acordo com alguns critérios também determinados no texto, a serem interpretados por autoridade competente, a ser criada pelo Executivo para fiscalizar a implementação da lei. A categoria de risco também afeta o regime de responsabilidade do fornecedor ou operador do sistema. O PL2338/2023 partiu desta minuta sem alterações substanciais, foi apresentado em maio de 2023 e desde então tem sido base de debate.
Contudo, em agosto de 2023, o Senado instaurou outra Comissão Temporária, desta vez a Comissão Temporária sobre Inteligência Artificial (CTIA), presidida pelo senador Carlos Viana (PODEMOS-MG), para examinar em conjunto os Projetos de Lei nº 5.051 e nº 5.691, de 2019; nº 21, de 2020; nº 872, de 2021; e nº 2.338 e nº 3.592, de 2023. O senador Eduardo Gomes (PL-TO) foi designado relator. Desde então, a CTIA conduziu uma série de audiências públicas. No dia 28 de novembro, o vice-presidente da CTIA, senador astronauta Marcos Pontes (PL-SP), apresentou uma emenda de substitutivo bastante controversa que desconsidera o amplo trabalho da comissão de juristas. A proposta suprime todo o capítulo II, referente a como interpretar e aplicar de direitos fundamentais no desenvolvimento de sistemas de IA. Esse capítulo é substituído por vagas previsões sob um título que se alinha com aqueles que defendem teorias vagas de risco existencial futuro, em detrimento de tratar questões presentes:“Dos princípios para a proteção da espécie humana e dos dados pessoais”. O texto também traz um sistema de cálculo de pontuações de risco bastante criticado por ser confuso e inaplicável, além de não tratar de regimes de responsabilidade. A proposta de emenda também prevê a criação de um Conselho Nacional de Inteligência Artificial, cuja composição não prevê participação de sociedade civil. Em suma, o texto suprime várias previsões altamente fundamentadas e justificadas do PL2338/2023, que também se baseou em estudo de legislação comparada, para no lugar dele apresentar um delírio sem fundamento legislativo. Além desta emenda, no dia 12 de dezembro, duas outras foram apresentadas visando o artigo 17 do PL2338/2023, que lista os sistemas que representam alto risco. Uma emenda pede que a autoridade competente não possa atualizar esta lista, o que é um dissenso, tendo em vista o ritmo acelerado das mudanças tecnológicas nesse campo. Outra pede a remoção dos sistemas de “credit scoring” da lista do artigo 17 , temos evidenciado os riscos desse sistema desde 2018. Outra previsão da mesma emenda seria classificar sistemas biométricos como sendo de alto risco apenas se usados pelo poder público para fins de investigação criminal e segurança pública, o que também vem em desacordo com as previsões da Lei Geral de Proteção de Dados que considera dados biométricos como dados sensíveis.
Diante das emendas apresentadas no contexto da CTIA, observamos, portanto, um retrocesso no processo legislativo brasileiro em relação ao que se havia alcançado a duras penas com os trabalhos da CJSUBIA. Ainda assim, o relator do PL 2338, Eduardo Gomes, afirmou que, uma vez aprovada, a legislação ainda terá, provavelmente, um prazo de um ano para entrar em vigor, o que significa que o país continuará sem um marco abrangente de IA até 2025. Enquanto isso, dois fenômenos acontecem em paralelo:
a) A profusão de sistemas de IA implementados no setor público sem regulação
Em Agosto de 2022, como parte da contribuição da Coding Rights à consulta pública da CJSUBIA, publicamos uma nota técnica que mostrava que 45 entes públicos federais consultados até outubro de 2021 via Lei de Acesso à Informação, 23 declararam fazer uso de sistemas de inteligência artificial para desenvolvimento de seus trabalhos e funções, incluindo a implementação das políticas públicas. Tudo isso sem a existência de um marco legal abrangente.
Na tentativa de atualizar esse levantamento, enviamos uma segunda série de pedidos de LAI para os mesmos órgãos públicos no final de 2022.* O quadro a seguir ilustra cada órgão consultado e a resposta autodeclarada:
Dos 44 entes públicos consultados em pedidos de LAI respondidos no final de 2022, 23 autodeclararam utilizar sistemas de inteligência artificial. A série comparativa não pôde ser continuada em 2023 devido às mudanças ministeriais do novo governo. Entre o período das duas consultas passaram do “Sim” para o “Não”: IBGE e IBAMA. Curiosamente, dois órgãos que foram bastante atacados e desvalorizados na gestão presidencial do período em questão.
O IBGE, em 2021, havia declarado que tinha “3 (três) experimentos em inteligência artificial ainda em caráter de estudos, sem produção e sem interações governamentais”. Eram eles sistemas de:
“1) Reconhecimento de Imagens de Satélite – para uso em pesquisas agropecuárias e em ocupação do solo quanto à moradia;
2) Reconhecimento de Documentos para Contratação – para uso nas contratações censitárias (em torno de 200 mil pessoas sendo contratadas em 1 ou 2 meses), visando facilitar as ações de RH;
3) Uso de Chatbot – para uso de agilização de perguntas e respostas das atividades censitárias e do próprio IBGE, tanto para questões técnicos quanto para as questões administrativas.” (Respostas na íntegra no Anexo II)
Mas em 2022 o órgão declarou que “tal como foi afirmado, tratam-se de projetos experimentais e, portanto, ainda em testes. Diante da magnitude da operação censitária que o IBGE está envolvido neste ano de 2022 e dada a necessidade de intensificarmos os investimentos de recursos humanos no desenvolvimento das aplicações e da infraestrutura de tecnologias de informação e comunicação para o Censo Demográfico 2022, tais projetos experimentais foram temporariamente suspensos e deverão ser reativados a partir de março de 2023.” (Respostas na íntegra no Anexo II)
Já o IBAMA em 2021, havia declarado que “em resposta ao Recurso de 1a Instância n° 9765/2021 a respeito de iniciativas ainda incipientes de Inteligência Artificial e Machine Learning informamos a seguir duas iniciativas:
1) Reconhecimento de Assinaturas nos Autos de Infração na etapa de análise preliminar do processo de conciliação ambiental
Objetivo: Identificar se o auto de infração está com a ciência válida através de técnicas de visão computacional, com a validação da presença das referidas assinaturas no arquivo PDF
2) Triagem de autos de infração aptos a conciliação ambiental
Objetivo: Realizar a triagem e validação de autos de infração para a realização das conciliações ambientais” (Respostas na íntegra no Anexo II)
Mas em 2022 resposta ao nosso pedido via LAI declarou que “o Ibama não faz uso de inteligência artificial, nesse momento.” (Respostas na íntegra no Anexo II)
Passaram do “Não” para o “Sim”: Ministério da Infraestrutura; Ministério da Educação; Ministério da Agricultura, Pecuária e Abastecimento e Ministério do Turismo.
Essa consulta, mesmo que superficial, indica que o uso de algum tipo de inteligência artificial pelo setor público no Brasil, ainda que em estágio piloto, é uma realidade. Mas quase nada se sabe sobre a necessidade real desses sistemas, não existem análises de risco, nem de impacto, ou qualquer dados que comprovem alguma eficiência na sua implementação. Se observarmos as categorias de alto risco hoje apresentadas no artigo 17 do PL2338/2023, o inciso X elenca os sistemas biométricos de identificação, tecnologias que já estão sendo implementadas hoje em dia sem salvaguardas. Por exemplo, no nosso levantamento, o então Ministério de Estado da Mulher, da Família e dos Direitos Humanos declarou em resposta aos nossos pedidos que utiliza software de reconhecimento facial da Microsoft em projeto piloto: “Informamos que a categoria de aplicação da ferramenta é voltada para Reconhecimento de face e Imagens, no qual tem o objetivo de segurança, fácil processo de integração, precisão e automação. Projeto vinculado a ONDH, que trata de pessoas desaparecidas, utilizando estrutura de IA no ramo da Visão Computacional, hospedada e estruturada na plataforma Microsoft Azure. A plataforma FaceID da Microsoft trata-se de estrutura de reconhecimento facial já treinada, sendo utilizada em estrutura de SAAS – Software as a Service. Trata-se de contratação de créditos de serviços em nuvem para projeto piloto. Informamos também que o referido sistema ainda não se encontra em produção. Na solução apresentada, em termos de arquitetura, o sistema possuirá uma base de dados de imagens de pessoas desaparecidas e fará a comparação com a imagem enviada através de aplicativo mobile, em tempo real.” (Respostas na íntegra no Anexo II)
Da mesma forma, a Receita Federal também declarou utilizar o sistema IRIS, sistema de reconhecimento facial para controle de viajantes, mas ainda no PL 2338/2023, além de elencar sistemas biométricos de identificação como de alto risco, também ressalta o risco de sistemas utilizados na gestão da migração e controle de fronteiras. Ou seja, estamos implementando sem controle apropriado sistemas que mesmo no debate legislativo mais aprofundado seriam considerados de alto risco e submetidos a procedimentos de monitoramento, transparência e controle para evitar danos a direitos fundamentais.
Cabe lembrar que enquanto o legislativo não aprova um texto abrangente, o Ministério da Ciência, Tecnologia e Inovação deu início agora em dezembro à revisão da Estratégia Brasileira de Inteligência Artificial (EBIA), que foi lançada em 2021. O processo de revisão tem previsão de ser concluído em maio de 2024 e, segundo o MCTI, tem como prioridades o “desenvolvimento de aplicações voltadas para o enfrentamento dos problemas em áreas como saúde, educação, agricultura, energia e transição energética (…) com objetivo de apoiar o desenvolvimento de soluções para atender as demandas e desafios do setor público, com a perspectiva de modernizar e aperfeiçoar os serviços oferecidos ao cidadão.” Ou seja, mais projetos de IA no setor público serão fomentados, mesmo sem contar com legislação abrangente. O MCTI também está responsável pelo Eixo de Inteligência Artificial do Grupo de Trabalho de Economia Digital do G20. No projeto queinteligencia.org, desde 2019, trazemos alguns questionamentos sobre sistema de IA aplicados no setor público em países da América Latina.
b) A profusão de projetos de lei sobre usos específicos de determinada IA
Por fim, também é possível observar que enquanto uma lei abrangente não é aprovada, além dos projetos e emendas mencionados anteriormente, aparecem projetos de lei voltados para usos específicos de determinado tipo de de inteligência artificial de acordo com casos de usos questionáveis que vêm a público. Foi o caso do escândalo de deep fakes produzidas por alunos de graduação ilustrando colegas em cenas de nudez; como também o caso de propaganda que reproduziu por meio de IA uma versão de mídia sintética da cantora Elis Regina, e provavelmente, com os casos de deep fakes de pessoas famosas reproduzidas em anúncios falsos, também veremos mais PLs específicos sobre o tema serem apresentados. Só em 2023, podemos elencar pelo menos 25 projetos desse tipo apresentados a nível federal na Câmara e Senado (a lista está disponível abaixo, no Anexo I).
Para 2024 vale observar como essas legislações específicas, focadas em determinados tipos de IA aplicados em contextos ilícitos, muitas vezes já pré-definidos em lei, são aprovadas e implementadas. É importante também atentar para como elas conversariam com uma legislação mais abrangente sobre IA. Esperamos que nesse caso, não prevaleça a tabela de risco do senador astronauta, e sim a sabedoria apreendida pela série de audiências, palestras e consultas públicas conduzidas pela Comissão de juristas. Indo mais além, almejamos uma regulação que considere também contribuições como a recebida durante as audiências públicas da CTIA, como a da liderança indígena Time’i Awaete, presidente do Instituto Janeraka, que busca compreender de que forma as novas tecnologias elaboradas por não indígenas afetam e ameaçam seu povo Awaete. Durante sua fala ele relatou os problemas como o desmatamento, a poluição das águas e outras violações de direitos enfrentados pela comunidade do território do Xingu, próximo a Altamira, no Pará, e destacou:
Quando falamos sobre IA, é importante “que isso não seja só mais uma ferramenta que vai acumulando, acumulando, matando terra para tirar ouro, para ter mais tecnologia, matando os povos, matando a floresta e os animais, e o planeta também e a vida, a vida de vocês também. Eu como pajé, e outros lá da aldeia, já recebemos o aviso. Nós também temos inteligência. Basta a gente perceber o que realmente vai sair como positivo para nós, para não ser só mais uma ferramenta que vai monitorar e colonizar a gente. E a tecnologia, para nós, no nosso território, quando vai uma invasão no nosso território, tirar o ouro que está lá embaixo da terra, desmatar a floresta, a nossa espiritualidade está ligada a essa tecnologia também. Se tirar, tirar, tirar, a gente vai ter conflito espiritual, conflito com todo mundo, e vai aparecendo doenças. Se a gente acredita no wifi, porque a gente não acredita na nossa conexão. Sou indígena de recente contato, não sou alfabetizado, mas a minha ciência, a minha educação sempre funcionou e é assim que eu me comunico com o pessoal da minha aldeia através da tecnologia espiritual ancestral” – Time’i Awaete Assurini do Xingu.
*****
*Obs: Também participaram do levantamento e sistematização dos pedidos de Lei de acessos à Informação as pesquisadoras Vanessa Koetz e Evelin Mattos. Design gráfico da sistematização foi feito por Clarote.
*****
Anexo I – Projetos de Lei sobre temas específicos de Inteligência Artificial em tramitação na Câmara e Senado propostos em 2023 (levantamento feito até 12 de dezembro de 2023)
Projeto de Lei | Autoria | Ementa | Caso que instigou a proposição |
PL 3614/2023 | Deputada Benedita da Silva (PT-RJ) | Dispõe sobre a proteção à imagem e à voz, reconstruídas digitalmente, de pessoa já falecida. | Propaganda da Volkswagen com personagem criado com IA generativa a partir da imagem da Elis Regina |
PL 3608/2023 | Deputado Jadyel Alencar (PV-PI) | Estabelece diretrizes para o uso de Deepfakes pós morte | Propaganda da Volkswagen com personagem criado com IA generativa a partir da imagem da Elis Regina |
PL 3592/2023 | Senador Rodrigo Cunha (PODEMOS/AL) | Estabelece diretrizes para o uso de imagens e áudios de pessoas falecidas por meio de inteligência artificial (IA), com o intuito de preservar a dignidade, a privacidade e os direitos dos indivíduos mesmo após sua morte. | Propaganda da Volkswagen com personagem criado com IA generativa a partir da imagem da Elis Regina |
PL 4025/2023 | Marx Beltrão – PP/AL | Altera a Lei nº 10.406, de 10 de janeiro de 2002 – Código Civil, e a Lei nº 9.610, de 19 de fevereiro de 1998, dispondo sobre a utilização da imagem de uma pessoa, viva ou falecida, e dos direitos autorais, decorrentes da utilização de inteligência artificial. | Propaganda da Volkswagen com personagem criado com IA generativa a partir da imagem da Elis Regina |
PL 5359/2023 | Deputada Erika Kokay (PT-DF). | Altera a Lei nº 8.069, de 13 de julho de 1990 – Estatuto da Criança e do Adolescente, para criminalizar a adulteração, montagem ou modificação de fotografia, vídeo ou qualquer outra forma de representação visual por meio de Inteligência Artificial, a aquisição e a posse de tal material e outras condutas relacionadas à pedofilia na internet. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5467/2023 | Camila Jara – PT/MS | Altera a Lei no 11.340, de 7 de agosto de 2006 (Lei Maria da Penha), e o Decreto-Lei no 2.848, de 7 de dezembro de 1940 (Código Penal), para reconhecer que a divulgação de conteúdo falso sexual configura violência doméstica e familiar e para criminalizar a divulgação de registro falso não autorizado de conteúdo com cena de nudez ou ato sexual ou libidinoso. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 2394/2023 | Delegado Marcelo Freita (União – MG) | Criminaliza a produção, oferta, comercialização, divulgação, transmissão ou posse de imagens que representem crianças ou adolescentes em cenas de sexo explícito, implícito ou de cunho pornográfico, utilizando recursos de inteligência artificial ou meio semelhante. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5694/2023 | Fred Linhares – REPUBLIC/DF | Criminaliza a manipulação ou adulteração de fotos, vídeos ou sons, utilizando-se de sistemas de inteligência artificial, com o intuito de causar constrangimento, humilhação, assédio, ameaça ou qualquer outro tipo de violência contra crianças ou adolescentes, além disso, aumenta a pena para crimes relacionados à pornografia infantil na hipótese de uso de inteligência artificial. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5641/2023 | Fernanda Melchionna – PSOL/RS, Sâmia Bomfim – PSOL/SP, Glauber Braga – PSOL/RJ | Dispõe sobre a proibição de aplicativos, sites, ferramentas e similares que utilizam inteligência artificial para criação de imagens pornográficas não autorizadas com o rosto de mulheres, bem como estabelece medidas para prevenir e combater a disseminação dessas imagens. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5342/2023 | Marcelo Álvaro Antônio – PL/MG | Tipifica o crime de Porno Fake e acrescenta o artigo 218-D ao Decreto-Lei nº 2.848, de 7 de dezembro de 1940 (Código Penal), para tipificar o crime de criação, divulgação e comercialização de imagem de nudez ou de cunho sexual não autorizada, gerada por softwares e inteligência artificial (AI); | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5859/2023 | Felipe Francischini – UNIÃO/PR | Proíbe o uso de Aplicativos e Programas de Inteligência Artificial para criação de “Deep Nudes” e dá outras providências. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 3902/2023 | Romero Rodrigues – PSC/PB, Nely Aquino – PODE/MG | Altera a Lei nº 12.965, de 23 de abril de 2014, para coibir o uso, criação, distribuição e comercialização de aplicativos e programas destinados à criação de imagens ou vídeos pornográficos ou obscenos falsos. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5492/2023 | Duda Salabert – PDT/MG | Altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 (Código Penal) para dispor sobre os crimes sexuais virtuais. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5630/2023 | Nely Aquino – PODE/MG | Altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 (Código Penal), para criminalizar a manipulação não autorizada de imagem intima de mulher. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5721/2023 | Senador Weverton (PDT/MA) | Dispõe sobre a produção, o uso e a divulgação de conteúdo sintético inautêntico e tipifica o uso dessas técnicas para criação, uso e divulgação, sem o consentimento da vítima, de cena de sexo, nudez ou pornografia. | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 5722/2023 | Senador Jorge Kajuru (PSB/GO) | Altera o art. 216-B do Decreto-Lei nº 2.848, de 7 de dezembro de 1940 – Código Penal, para aumentar a pena de quem utiliza inteligência artificial para montagem em fotografia, vídeo, áudio ou qualquer outro registro, com o fim de incluir pessoa em cena de nudez ou ato sexual ou libidinoso de caráter íntimo | Caso de IA utilizada por alunos de escolas para produzir fotomontagens de nudez representando colegas |
PL 3379/2023 | Neto Carletto – PP/BA | Altera a Lei nº 9.394, de 20 de dezembro de 1996, de diretrizes e bases da educação nacional, para dispor sobre a inclusão do ensino de Inteligência Artificial no ensino médio. | |
PL 4869/2023 | Marco Brasil – PP/PR | Veda a demissão ou redução da jornada de trabalho dos profissionais da voz e dos intérpretes de Língua Brasileira de Sinais – Libras em razão da utilização de ferramentas de inteligência artificial para produção de conteúdos audiovisuais. | |
PL 3423/2023 | Caio Vianna – PSD/RJ | Altera a Lei nº 7.998, de 11 de janeiro de 1990, para dispor sobre a contribuição voluntária das empresas que façam uso de inteligência artificial para o Fundo de Amparo ao Trabalhador e a concessão do selo “Empresa Amiga do Emprego”. | |
PL 4730/2023 | Delegado Palumbo – MDB/SP | Incluir a alínea “m” no inciso II do artigo 61 do Decreto Lei n° 2.848, de 7 de dezembro de 1940, Código penal, para prever o uso da inteligência artificial como circunstância agravante, e dá outras providências. | Golpe de whatsapp onde utilizando-se da inteligência artificial, passaram a gravar áudios e vídeos, com a mesma voz da vítima, tentando passar mais credibilidade ao pedir dinheiro |
PL 5241/2023 | Rafael Brito – MDB/AL | Altera a Lei nº 4.737, de 15 de julho de 1965, para tipificar o crime de divulgação de deep fake durante período de campanha eleitoral. | |
PL 5242/2023 | Rafael Brito – MDB/AL | Altera a Lei nº 9.504, de 30 de setembro de 1997, para dispor sobre a vedação à criação, utilização e propagação de deep fake. | |
PL 5931/2023 | Carlos Chiodini – MDB/SC | Altera a Lei n º 9.504, de 30 de setembro de 1997 (Lei das Eleições) para dispor sobre o uso da inteligência artificial em propaganda eleitoral. | |
PL 5938/2023 | Lídice da Mata – PSB/BA | Altera a Lei 12.965, de 23 de abril e 2014, que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil, para prever que provedores de redes sociais adotem medidas para identificar e sinalizar conteúdos realizados com uso de inteligência artificial. | Caso da atriz Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens como se ela estivesse sem roupa. |
PL 1473/2023 | Aureo Ribeiro – SOLIDARI/RJ | Esta Lei torna obrigatória a disponibilização, por parte das empresas que operam sistemas de inteligência artificial, de ferramentas que garantam aos autores de conteúdo na internet a possibilidade de restringir o uso de seus materiais pelos algoritmos de inteligência artificial, com o objetivo de preservar os direitos autorais. | Popularização do ChatGPT |
Anexo II – Respostas de pedidos de Lei de Acesso à informação citadas:
IBGE
IBAMA
Ministério de Estado da Mulher, da Família e dos Direitos Humanos
Receita Federal
*****