Das fakes à regulação das redes: as metamorfoses do PL 2.630 em três anos

Publicado originalmente em Agência Lupa por Chico Marés. Para acessar, clique aqui.

Do foco inicial em combater a desinformação à responsabilidade de regulamentar as redes sociais no Brasil, o Projeto de Lei nº 2630/2020 (PL 2.630) vem passando por metamorfoses desde 2020. O capítulo mais recente foi uma série de propostas apresentadas pelo governo federal no fim de março, em formato de projeto substitutivo, com 59 artigos e mudanças significativas como a responsabilização civil das plataformas que não removam conteúdos criminosos.

A sugestão do Executivo, entretanto, traz novos elementos a um texto que tem ficado cada vez mais amplo e complexo – e difere muito do projeto que originou o debate, apresentado pelo senador Alessandro Vieira (PSDB-SE) em 2020 e priorizava a desinformação nas redes. As alterações começaram no mesmo ano, quando o Senado aprovou uma versão modificada da proposta, relatada pelo senador Ângelo Coronel (PSD-BA), com regras mais gerais e que praticamente não citava o termo “desinformação”.

Na Câmara, mais uma mudança de rota: o projeto passou a ser relatado pelo deputado federal Orlando Silva (PCdoB-SP), que apresentou um substitutivo ao texto em 2022. A proposição de Silva incluiu alguns pontos bastante polêmicos, como pagamentos a meios de comunicação e imunidade parlamentar nas redes.

A eleição de Luiz Inácio Lula da Silva (PT) trouxe o Executivo à discussão. Na proposta do governo, o foco não é a desinformação em si, mas o compartilhamento de discurso de ódio e ataques ao sistema democrático – assuntos que ganharam força após os atos golpistas de 8 de janeiro e a oficialização do Regulamento dos Serviços Digitais (DSA, na sigla em inglês) pela União Europeia — aprovado em outubro do ano passado, o ato entra em vigor em 2024.

Isso trouxe recentemente ao debate temas como o chamado “dever de cuidado” das plataformas digitais – que significa que as grandes empresas do setor terão a obrigação de mitigar o compartilhamento de conteúdos criminosos –, regras mais rígidas de transparência e até a possível criação de um código de conduta sobre desinformação.

Lupa comparou os principais pontos das quatro versões do projeto. A seguir, veja como as metamorfoses impactaram temas centrais para a regulamentação das redes sociais:

Dever de cuidado e responsabilização civil

  • Projeto original: não cita
  • Texto aprovado no Senado: não cita
  • Substitutivo da Câmara: não cita
  • Sugestão do governo: estabelece o “dever de cuidado” das plataformas e prevê responsabilização civil

Essa é uma das principais novidades trazidas pelo governo federal à proposta. No artigo 12, o texto estabelece que as grandes plataformas digitais devem, por obrigação, atuar para prevenir ou mitigar o compartilhamento de conteúdos criminosos. A lista inclui crimes contra o Estado democrático de direito, crianças e adolescentes e saúde pública, além de terrorismo, racismo, indução ao suicidio e violência de gênero. Mais polêmico, porém, é o artigo 13. Ele permite responsabilizar civilmente as plataformas caso se neguem a remover conteúdos que contenham algum desses crimes.

Atualmente, o artigo 19 do Marco Civil da Internet – cuja constitucionalidade deve ser julgada em breve pelo Supremo Tribunal Federal (STF) – estabelece que as plataformas só podem ser responsabilizadas por não remover conteúdos após decisão judicial específica, com algumas exceções – pornografia de vingança e pornografia infantil, por exemplo.

Na prática, a regra criaria novas exceções, em alguns dos casos envolvendo conteúdos cuja avaliação não seja estritamente objetiva.

Mitigação de riscos

  • Projeto original: não cita
  • Texto aprovado no Senado: não cita
  • Substitutivo da Câmara: não cita
  • Sugestão do governo: plataformas são obrigadas a publicar análises de “riscos sistêmicos”

O texto apresentado pelo governo prevê que as big techs serão obrigadas a fazer análises para mitigação de riscos sistêmicos de proliferação de conteúdos criminosos. Esses relatórios devem ser produzidos anualmente ou sempre que houver alguma mudança significativa no funcionamento da plataforma, segundo a proposta. Além disso, as empresas teriam que se submeter a auditorias externas periódicas. 

Desinformação

  • Projeto original: foco principal da proposta, com 23 citações no texto
  • Texto aprovado no Senado: cita apenas duas vezes o termo
  • Substitutivo da Câmara: cita a palavra três vezes
  • Sugestão do governo: 15 citações, mas quase todas em artigo sobre a criação de um código de conduta específico

O apelido “PL das Fake News” é bastante usado para se referir ao PL 2.630, mas trata-se de uma nomenclatura enganosa. Embora o projeto original citava como objetivo “o fortalecimento do processo democrático por meio do combate à desinformação”, o foco mudou consideravelmente nas versões posteriores. 

O texto original, de autoria do senador Alessandro Vieira, citava a palavra “desinformação” 23 vezes, e colocava a questão como um dos pilares da lei. E definia essa palavra como “conteúdo, em parte ou no todo, inequivocamente falso ou enganoso, passível de verificação, colocado fora de contexto, manipulado ou forjado, com potencial de causar danos individuais ou coletivos, ressalvado o ânimo humorístico ou de paródia”. 

Já na versão aprovada pelo Senado, contudo, o número de citações caiu para dois, e não há qualquer definição sobre o termo. O mesmo acontece no substitutivo da Câmara.

A versão sugerida pelo governo Lula cita 15 vezes a palavra “desinformação”. Contudo, isso só acontece porque o projeto propõe a criação de um “Código de conduta de enfrentamento à desinformação” — que não existia nesse formato nas versões anteriores. Na prática, o texto está mais próximo dos substitutivos da Câmara e do Senado do que do projeto original.

No restante da proposta do Executivo, a desinformação é citada apenas tangencialmente. São quatro citações: em duas delas, a menção é como um tipo de conteúdo “nocivo ou danoso”. Já o artigo 47 estabelece que todas as grandes plataformas devam ter meios de denunciar desinformação. E o artigo 48 prevê a criação de campanhas educativas para conscientizar sobre desinformação.

Código de conduta contra desinformação

  • Projeto original: não cita
  • Texto aprovado no Senado: código de conduta genérico
  • Substitutivo da Câmara: código de conduta genérico
  • Sugestão do governo: código de conduta específico sobre desinformação

A previsão do código de conduta específico contra a desinformação é uma das novidades apresentadas pelo governo em sua sugestão para o PL 2.630. O texto estabelece que o Congresso deve criar uma comissão provisória, composta de parlamentares e representantes da imprensa e sociedade civil, para elaborar essas regras. 

A existência de um código já existia nas outras versões do projeto, mas com objetivos mais genéricos. A versão aprovada pelo Senado prevê que o Conselho de Transparência e Responsabilidade na Internet — criado pelo próprio projeto — seria responsável por criar um “código de conduta” incluindo “desinformação, discurso de incitação à violência, ataques à honra e intimidação vexatória”.

No substitutivo de Silva, que tramita na Câmara, o Comitê Gestor da Internet (CGI.br) ficaria responsável por elaborar um código de conduta, exigindo das plataformas “medidas preventivas para conter a difusão em massa de conteúdo”.

Pagamentos a meios de comunicação

  • Projeto original: não cita
  • Texto aprovado no Senado: não cita
  • Substitutivo da Câmara: plataformas devem pagar por conteúdos jornalísticos
  • Sugestão do governo: plataformas devem pagar por conteúdos jornalísticos, musicais e audiovisuais

A inclusão de pagamentos a meios de comunicação foi um “jabuti” – emenda sem relação direta com o texto da lei – incluído no substitutivo de Silva. Isto não estava previsto no projeto original nem no texto aprovado no Senado. Na proposta do governo, o trecho segue de pé, com algumas alterações.

O Executivo propõe que conteúdos protegidos por direitos de autor “ensejarão remuneração a seus titulares pelas plataformas e provedores”, mas que o formato será definido em regulação posterior. Estariam cobertos pela lei “conteúdos musical, audiovisual e jornalístico”.

O substitutivo da Câmara, porém, restringia a regra para conteúdo jornalístico e determinava, ainda, que a regulamentação deveria valorizar o “jornalismo profissional nacional, regional, local e independente”. Esse trecho foi removido na sugestão do governo.

Contas de autoridades

  • Projeto original: não cita
  • Texto aprovado no Senado: contas de autoridade são de interesse público
  • Substitutivo da Câmara: contas de autoridade são de interesse público, mas há citação à imunidade parlamentar
  • Sugestão do governo: plataformas não podem apagar perfis de políticos eleitos sem decisão judicial; imunidade não é citada

O trecho da lei que trata de contas de agentes públicos nas redes sociais foi incluído no Senado. A primeira versão do texto dizia apenas que os perfis de políticos eleitos e ocupantes de cargos relevantes na administração pública estariam sujeitos “aos princípios da Administração Pública”.

Esse trecho, porém, foi alterado na versão de Silva. O substitutivo da Câmara determina que a “imunidade parlamentar material” deveria ser observada pelas plataformas — o que pode ser lido como uma carta branca para parlamentares publicarem conteúdos nocivos em redes sociais.

O texto apresentado pelo governo não fala em imunidade parlamentar, mas impede que plataformas digitais excluam perfis de políticos eleitos durante seus mandatos — salvo por decisão judicial. As plataformas poderiam bloquear páginas de políticos “contumazes violadores dos termos e políticas de uso ou disseminadores de discursos de ódio” temporariamente. Não há nenhuma especificação sobre a exclusão de conteúdos.

Autorregulação regulada

  • Projeto original: não cita
  • Texto aprovado no Senado: autorregulação dos serviços em geral
  • Substitutivo da Câmara: autorregulação específica para moderação de conteúdo
  • Sugestão do governo: autorregulação específica para moderação de conteúdo

A chamada autorregulação regulada não estava prevista no projeto original, mas foi incluída no texto ainda no Senado. Na proposta do governo Lula, esse dispositivo é focado exclusivamente na moderação de conteúdos e contas — como já era no substitutivo de Silva.

O governo propõe que as empresas de tecnologia criem uma entidade de regulação, que ficará responsável por supervisionar as decisões de moderação tomadas pelas plataformas e instituir “boas práticas” para a remoção de perfis considerados inautênticos. Essa instituição seria financiada pelas próprias big techs. O texto é mais detalhado, mas bastante similar ao do substitutivo da Câmara.

Esse aspecto do projeto, especificamente, deve ser alvo de novas sugestões por parte do Judiciário. Uma comissão montada pelo Tribunal Superior Eleitoral (TSE), com representantes das principais empresas de tecnologia, está elaborando um conjunto de sugestões a respeito desse tema.

Relatórios de transparência

  • Projeto original: foco em estatísticas sobre a moderação
  • Texto aprovado no Senado: foco em estatísticas sobre a moderação
  • Substitutivo da Câmara: foco em estatísticas sobre a moderação
  • Sugestão do governo: detalhamento de procedimentos adotados e informações sobre algoritmos

O governo Lula propôs que as grandes plataformas apresentem relatórios semestrais de transparência, nos quais devem detalhar procedimentos adotados para o cumprimento das obrigações previstas em lei, providências adotadas para reduzir a quantidade de atividades criminosas, informações sobre mudanças nos algoritmos e sistemas de recomendação e “descrição geral dos sistemas algoritmos usados”, entre outras medidas.

Os relatórios de transparência já estavam previstos no projeto original, mas eram focados em estatísticas. Inicialmente, foi proposto um relatório com números de publicações, medidas de moderação e contas automatizadas. Nos substitutivos do Senado e da Câmara, foram incluídos outros dados, como o número de contas ativas e o tempo médio entre a detecção e a aplicação de medidas.

Educação midiática

  • Projeto original: capacitação para internet é parte do dever constitucional de educação
  • Texto aprovado no Senado: capacitação para internet é parte do dever constitucional de educação
  • Substitutivo da Câmara: capacitação para internet é parte do dever constitucional de educação
  • Sugestão do governo: cita capacitação e outros seis itens que passam a ser parte do dever constitucional de educação

A proposta do governo federal inclui a educação midiática como parte do dever constitucional do Estado na prestação da educação. São citados como deveres específicos: a capacitação para uso seguro da internet, o desenvolvimento de pensamento crítico e da habilidade de argumentação, a garantia do ensino sobre acesso à informação, a conscientização sobre privacidade e proteção de dados pessoais, a promoção da alfabetização digital e a formação de professores para atender esses requisitos.

As outras versões citavam exclusivamente o primeiro item. A versão do Senado também previa o uso de recursos de multas aplicadas com base na lei para projetos de “educação e alfabetização digitais”. Medida similar consta no substitutivo da Câmara.

Sanções

  • Projeto original: multa, suspensão e proibição
  • Texto aprovado no Senado: multa
  • Substitutivo da Câmara: multa, suspensão e proibição
  • Sugestão do governo: multa, suspensão e proibição, além de multas específicas para descumprimento de ordem judicial

Todas as versões do projeto preveem sanções às plataformas digitais. Na versão original, eram previstas multa, sem valor específico, suspensão e proibição da plataforma em atuar no Brasil. O Senado aprovou uma multa equivalente a até 10% do faturamento de cada empresa no país, mas não fala em suspensão ou proibição das atividades.

Essas duas punições possíveis estão presentes no substitutivo de Silva e na sugestão do governo. O Executivo propõe multar plataformas em até R$ 50 milhões, ou R$ 1 mil por usuário cadastrado no país, em caso de descumprimento da lei. Há, ainda, a previsão de multas por descumprimento de decisão judicial, chegando a até R$ 1 milhão por hora. 

Editado por

Leandro Becker e Bruno Nomura

Compartilhe:

Share on whatsapp
Share on twitter
Share on facebook
Share on email
Share on linkedin
Share on telegram
Share on google

Deixe um comentário

O seu endereço de e-mail não será publicado.

Language »
Fonte
Contraste