POR QUE REGULAR A INTERNET É PRECISO?

Publicado originalmente em Radis Comunicação e Saúde. Para acessar, clique aqui.

Para todas essas perguntas, a resposta é que ainda não há regulação no Brasil. O Marco Civil da Internet (Lei no 12.965/2014) trata de conceitos gerais, mas não estabelece regras para esse tipo de mediação. É principalmente com base nessa necessidade que se pauta a proposta de criação da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, em trâmite no Congresso Nacional como Projeto de Lei (PL) no 2630/2020. Se não der conta de solucionar todo o problema, a proposta busca ao menos regular parte dele. Isso porque a legislação tem um recorte bem específico quando se refere a “plataformas de internet”, restringindo-se a redes sociais, aplicativos de mensagem e ferramentas de busca online.

Foco de disputas, a proposta é chamada de PL das Fake News pela imprensa e por defensores da medida, e apelidada de PL da Censura por seus opositores. Dentre eles, estão apoiadores do ex-presidente Jair Bolsonaro, parlamentares de oposição ao governo Lula e gigantes globais que atuam no ramo de tecnologia digital, como Google, Meta (responsável por gerenciar Facebook, Instagram e WhatsApp) e Telegram, conhecidas como big techs.

O projeto de lei de autoria do senador Alessandro Vieira (Cidadania-SE) foi apresentado em 2020, motivado por episódios de desinformação e negacionismo científico disseminados na internet durante a pandemia de covid-19 — o que a Organização Mundial da Saúde (OMS) chegou a classificar como infodemia (Radis 246). Contudo, a discussão sobre limites e responsabilidades de serviços como redes sociais e aplicativos de mensagens foi iniciada antes mesmo da crise sanitária global. Um alerta sobre a regulamentação dos serviços foi dado em 2018, durante a disputa eleitoral, devido ao uso de robôs para produção e circulação em massa de conteúdos noticiosos falsos.

Ainda assim, a tramitação do PL 2630 só foi acelerada na Câmara dos Deputados a partir de fatos graves ocorridos no início de 2023, como o uso dessas plataformas na articulação dos atentados à Democracia — culminando na tentativa de golpe de Estado, com atos de vandalismo e depredação dos prédios dos Três Poderes, em 8 de janeiro — e os atentados a escolas e creches, no início de 2023.

Foi em 25 de abril de 2023 que o PL, aprovado pelo Senado ainda em junho de 2020, entrou em regime de urgência na Câmara. A proposta entrou  na agenda de votações em 2 de maio, mas foi retirada da pauta pelo presidente da Casa, Arthur Lira (PP-AL), e até a publicação desta reportagem não avançou.

Entidades historicamente engajadas na democratização da comunicação, como o Intervozes — Coletivo Brasil de Comunicação Social, o Fórum Nacional pela Democratização da Comunicação (FNDC) e a Coalizão Direitos na Rede (CDR) posicionam-se a favor da regulamentação. Em manifesto aberto, o FNDC classifica a regulação das plataformas digitais como uma medida “necessária e urgente”. Em sentido contrário, está o apoio de peso das big techs, que controlam serviços e plataformas digitais que utilizamos todos os dias.

Segundo apuração da Agência Pública, em matéria veiculada em maio de 2023 (leia clicando aqui), do início de abril até o dia 6 de maio, o Google havia pago à Meta mais de R$ 670 mil em anúncios no Instagram e Facebook em campanha contrária à aprovação do projeto de lei na Câmara. As peças veiculadas traziam distorções como: “O PL 2630 pode aumentar a confusão sobre o que é verdade ou mentira no Brasil” ou “Um Projeto de Lei pode piorar a sua internet”, dentre outras ofensivas.

Mas, afinal, por que essas empresas têm atacado a medida regulatória? Que interesses impulsionam essa movimentação orquestrada a partir de suas próprias ferramentas? Radis entrou nessa arena para discutir o que está em disputa e conversou com alguns especialistas para entender como a regulação pode ser também uma forma de garantir o respeito à democracia e à liberdade de expressão. E não o contrário.

— Foto: Nadia Nicolau/Estudantes NINJA.

Liberdade: Por que regular não é censurar

Especialistas apontam que no cenário atual o que se observa é um claro desequilíbrio em favor das plataformas, que desfrutam de autonomia e plenos poderes na moderação de conteúdos e contas dos usuários de seus serviços. Para diminuir essa disparidade, “a lei proposta cria procedimentos que limitam o poder das empresas em relação às pessoas”. É o que afirma Paulo Rená, gestor da elaboração coletiva do Marco Civil da Internet no Brasil, pesquisador e integrante da Coalizão Direitos na Rede.

Paulo — que possui formação em Direito e também é co-diretor executivo da ONG AqualtuneLab — tem acompanhado as discussões sobre a regulação das plataformas. Ele afirma à reportagem que as empresas precisarão garantir aos usuários mais detalhes sobre suas intervenções, inclusive com a possibilidade de ações judiciais em casos de divergência. “O PL 2630 dá maior poder às pessoas, que passarão a ter garantias de que serão mais bem informadas sobre as decisões das plataformas, bem como de que haverá meios para recorrer contra erros na remoção de conteúdo”.

Hoje, a definição sobre o que será visto ou ocultado nas redes cabe exclusivamente às empresas, a partir de seus interesses comerciais. “A gente já está sujeito a diversas formas de controle e moderação por parte das plataformas que fazem isso como opção de mercado, o que afeta de maneira direta e indireta a nossa democracia em níveis que a gente nem consegue avaliar”, reflete.

Bia Barbosa, jornalista, escritora, integrante do DiraCom (Direito à Comunicação e Democracia) e uma das representantes da sociedade civil no Comitê Gestor da Internet no Brasil (CGI.br), acompanha a percepção de Paulo e é incisiva ao apontar os riscos trazidos pelo formato praticado. “O atual modelo de autorregulação das plataformas tem se mostrado insuficiente para a garantia de direitos fundamentais e, ao mesmo tempo, perigoso para a democracia”. Ela atribui esse fato à lógica de mercado na qual essas empresas trabalham, baseada na retenção da atenção dos usuários e na busca por audiência e interações, que resultam em engajamento.

Segundo Bia, por essa razão, as plataformas investem na disseminação de conteúdos desinformativos e violentos, de incitação ao ódio, com violação de direitos e que atentam contra o Estado Democrático de Direito, ao invés de inibí-los, pois geram mais audiência e repercussão. “Se a gente olhar o que aconteceu na pandemia, nos processos eleitorais e, principalmente, no 8 de janeiro, apesar de as plataformas terem nos seus termos de uso algumas regras para que elas próprias removam conteúdos que atentem contra os direitos humanos ou a democracia, o que vimos foram esses conteúdos circulando abertamente e amplamente nessas redes”.

“A desinformação gera lucro para as plataformas.”

Bia Barbosa (DiraCom)

A jornalista e ativista pela democratização da comunicação afirma ainda que esses episódios demonstram que as big techs se pautam exclusivamente pelo lucro em seus negócios. “Na lógica capitalista, as plataformas não vão se autorregular para coibir esse tipo de conteúdo. A desinformação gera lucro para as plataformas”, revela.

Paulo e Bia afirmam que a regulação dos serviços de internet não é sinônimo de censura. “Não tem censura, algo que estabeleça ‘no dia seguinte à aprovação da lei as plataformas vão remover conteúdos a pedido do governo’”, argumenta Paulo. Segundo Bia, o PL 2630 não diz que o governo vai definir quais são os conteúdos que devem ser removidos, o que seria uma clássica violação dos padrões internacionais de proteção à liberdade de expressão. “O projeto determina que as plataformas façam uma análise sistemática dos riscos gerados pelo seu modelo de negócio para questões como proteção aos direitos fundamentais e à democracia”, explica. 

Ela adverte que a liberdade de expressão — muitas vezes usada como pretexto para sustentar posicionamentos discriminatórios e criminosos — precisa andar junto com outros direitos básicos. “É importante a gente dizer que a liberdade de expressão é um direito fundamental que precisa ser exercido em consonância com outros direitos fundamentais”, pontua. “Ninguém pode alegar exercício da liberdade de expressão para incitar violência, promover o racismo e a violência contra as mulheres, destilar preconceitos e discurso de ódio. Isso não cabe nos padrões internacionais de exercício democrático da liberdade de expressão”.

— Foto: Nadia Nicolau/Estudantes NINJA.

Responsabilidade: Por que as plataformas precisam se adequar às regras brasileiras

Com a instituição da nova lei, para assegurar a liberdade de expressão dos usuários e a transparência de suas decisões, as empresas de tecnologia terão de se adequar e atuar mais proativamente, assumindo novas obrigações. A maior diferença em relação ao que já se pratica, porém, está na responsabilização pelos conteúdos pagos. 

“Hoje, a partir do Marco Civil [da internet], as plataformas só passam a ter responsabilidade sobre conteúdos postados por usuários depois de uma decisão judicial. Com a nova lei, elas serão também responsáveis quando o conteúdo for impulsionado, porque a plataforma terá um dever decorrente dessa relação comercial que busca ampliar o alcance da publicação”, explica Paulo.

Com exceção das mensagens impulsionadas, de modo geral as plataformas passarão a ser obrigadas a avaliar e agir apenas em casos específicos de risco grave e iminente à integridade física das pessoas, à saúde pública e à democracia, deflagrados em no máximo 30 dias. Não sendo obrigadas, portanto, a verificar todo o universo de mensagens por elas veiculadas. “Não terão obrigação maior de remover conteúdo do que já acontece atualmente. Mas sim em situações específicas, em que haja um mecanismo para acionar uma postura mais intensa e proativa”, destaca o pesquisador da Coalizão Direitos na Rede.

Ainda segundo Paulo, essa responsabilização fortalece a democracia ao “proteger o público de conteúdos que violem direitos humanos, que sejam ilegais ou mentirosos, por exemplo, em relação a conceitos científicos ou fatos históricos bem documentados, como escravidão, holocausto, guerra civil, ditadura militar, resultado de eleições e pandemia”. 

Há, ainda, a proposta de um órgão colegiado para fiscalizar essas regras e proteger as empresas de terem seus serviços bloqueados por juízes de primeira instância. É o que acontece quando há um bloqueio temporário do WhatsApp, por exemplo, por decisão judicial. “Por um lado, o projeto amplia a responsabilidade das plataformas em relação a conteúdo impulsionado; e, por outro, salvaguarda o interesse público de ter acesso ao que está na plataforma, dificultando os bloqueios”, diz ele.

Para Bia Barbosa, enquanto as plataformas não forem responsabilizadas pelo teor das postagens que impulsionam, seus interesses comerciais continuarão sendo o principal critério para propagação de conteúdos não verificados e potencialmente danosos à sociedade. “Quando você tem campanhas de desinformação organizadas e orquestradas recebendo dinheiro para impulsionar determinados tipos de conteúdo, com alta capacidade de engajamento de usuários, tudo isso interessa às plataformas. É óbvio que elas não vão reduzir a circulação desse tipo de conteúdo dentro delas por livre e espontânea vontade”.

Postagens que negam as atrocidades cometidas na ditadura militar ou que levantam falsas acusações em relação às vacinas — afirmando que elas podem causar autismo ou que modificam o DNA humano — circulam livremente nessas plataformas. Por isso, Bia ressalta a urgência de atuação do Estado na regulação desses serviços. 

“Quando a gente fala ‘o Estado brasileiro’, não estamos falando de um governo específico. Mas, sim, das diferentes instituições do país para estabelecer mecanismos regulatórios que garantam minimamente que esse ambiente digital respeite os direitos humanos e a democracia”, destaca.

Segundo a ativista, a futura legislação não vai interferir diretamente nem impedir que essas empresas funcionem ou operem no país. “Não é disso que se trata. Mas [o projeto] vai determinar que a livre iniciativa respeite valores fundamentais para nossa democracia e, nesse sentido, estabelecer algumas regras para o funcionamento dessas empresas”, considera.

— Fotos: Nadia Nicolau/Estudantes NINJA.

“Com transparência nos critérios e nas práticas das plataformas digitais, será viável exigir mais responsabilidade e proteger efetivamente nossos direitos humanos fundamentais.”

Paulo Rená (AqualtuneLab e CDR)

Transparência: Por que as empresas deverão informar suas ações

“Com transparência nos critérios e nas práticas das plataformas digitais, será viável exigir mais responsabilidade delas e proteger efetivamente os direitos humanos fundamentais, especialmente nossa liberdade de expressão online”. Com essa afirmação, Paulo Rená resume e agrupa os três principais pilares do PL 2630, enfatizando a transparência como a chave para a imprescindível liberdade de expressão na internet. “A gente precisa ter transparência, isso é urgente, para que a sociedade não fique refém dos segredos de negócio”.

Radis também conversou com Carlos Eduardo Barros, pesquisador do Laboratório de Estudos de Internet e Mídias Sociais da Universidade Federal do Rio de Janeiro (NetLab/UFRJ). Para ele, tanto o conteúdo veiculado quanto o funcionamento dos sistemas de anúncios digitais necessitam de mais transparência. “Muitos anunciantes questionam como garantir que o serviço foi prestado corretamente ou se um dos concorrentes obteve vantagem indevida. A ‘caixa preta’ dos algoritmos é um obstáculo para a fiscalização do mercado e, inclusive, pode ser considerada uma violação do direito do consumidor”, declara.

Carlos Eduardo detalha um pouco mais sobre esse processo: “Por um lado, regulamentar significa desmistificar parte desse sistema, compartilhando dados que já existem e hoje são uma vantagem competitiva. Por outro, a regulamentação pode revelar ainda mais problemas e exigir maiores investimentos para que essas empresas mantenham sua atuação no Brasil, por exemplo, a contratação de mais brasileiros para identificar e moderar conteúdos tóxicos e criminosos”.

“A transparência é o começo da possibilidade de um avanço civilizatório na internet”

Carlos Eduardo Barros (NetLab/UFRJ)

Nessa linha, o pesquisador da UFRJ afirma que “a transparência é o começo da possibilidade de um avanço civilizatório na internet, em que a população brasileira — e de cada país — possa participar não só do consumo, mas também da regulamentação dos serviços que utiliza, garantindo que estejam alinhados às leis do país”. Para ele, sob esse ponto de vista, “a regulamentação também é uma questão de soberania nacional”. E pode contribuir muito para a melhoria dos serviços, “à medida que toda a sociedade colabore na tarefa de fiscalização das redes, na qual as plataformas têm se mostrado tão ineficazes sozinhas”, conclui.

IMPACTOS NA SAÚDE COLETIVA

As plataformas digitais influenciam as decisões das pessoas nos mais variados assuntos, inclusive na saúde. Essa é a avaliação de Marcelo Fornazin, pesquisador da Escola Nacional de Saúde Pública Sergio Arouca (Ensp/Fiocruz) e um dos coordenadores do GT Informação em Saúde e População da Associação Brasileira de Saúde Coletiva (Abrasco). E por isso, segundo ele, esses serviços devem ser fiscalizados pelo controle social.

“Longe de serem espaços neutros, essas ferramentas têm um papel político grande. Não são apenas atores que estão no mercado, porque as pessoas tomam decisões, inclusive de saúde [a partir dos conteúdos veiculados na internet]”, diz. Ainda segundo Marcelo, que atua com os temas de saúde digital e produção de informação, essas interferências se refletem em condutas e comportamentos cotidianos, tais como “sobre se vacinar ou não, aderir a um tratamento ou não, fazer exercícios físicos ou acompanhar uma gestação”. “É importantíssimo buscar meios de produzir informação confiável, dar acesso e responsabilizar quando a informação for danosa ou coloque a população em risco”.

Ao comentar a participação das redes sociais e aplicativos de mensagens na formulação e disseminação de conteúdo antivacina no ápice da pandemia de covid-19, Marcelo destaca que o principal critério usado pelas plataformas foi o de mercado e não de qualificação das informações. Ou seja, conteúdos pagos para serem impulsionados ou aqueles mais engajados circularam amplamente, independentemente da acurácia daquelas informações. E para isso, artifícios foram usados pelos produtores desses conteúdos, como tentar atribuir caráter de ‘cientificidade’ aos argumentos, dando visibilidade a estudos contraditórios, ou utilizando-se da estética de veículos jornalísticos e até mesmo apelando para a liberdade individual de escolha.

“A regulação é para dizer os limites desses atores. Assim como a gente tem uma regulação da vigilância sanitária, com a Anvisa, que impõe limites e impede o uso de produtos que causem danos à saúde”.

Marcelo Fornazin (Ensp/Fiocruz)

“A regulação é para dizer os limites desses atores. Assim como a gente tem uma regulação da vigilância sanitária, com a Anvisa, que impõe limites e impede o uso de produtos que causem danos à saúde”, avalia. Marcelo destaca que a regulação das plataformas evita riscos para a sociedade e, por consequência, para a saúde pública, por decisões mal informadas. “É importante pensar nessa regulação e em formas alternativas de produzir e circular informações de confiança”, orienta, defendendo que a produção seja coletiva, com participação da sociedade, e não verticalizada.

O pesquisador da Fiocruz destaca outro fator que potencializa a importância dessas ferramentas como fonte de consulta para grande parte da população. Ele lembra que, em muitos casos, as operadoras de telefonia oferecem pacotes de dados com acesso limitado à internet, que geralmente restringem-se ao WhatsApp e mídias sociais, como Facebook e Instagram — prática conhecida como zero rating. Logo, o que a pessoa consome naquelas plataformas não pode ser checado em fontes oficiais e, portanto, acaba sendo tomado como verdade. 

Marcelo defende que os princípios do SUS, como a universalização e a descentralização, sejam aplicados na democratização do acesso à informação — já que nem todos os brasileiros possuem acesso livre à internet e as informações produzidas ainda são muito centralizadas nos grandes centros, ignorando as especificidades locais, como observado na prescrição de condutas padronizadas durante a pandemia. Ele também ressalta a importância de se fiscalizar e qualificar tais informações. “As plataformas deixam de ser um serviço que a pessoa está usando e passam a ser o mundo onde ela está vivendo”, adverte.

Quais são os limites da internet? Como ações fomentadas no ambiente virtual podem repercutir no mundo real e impactar o nosso cotidiano e as decisões relacionadas à saúde? De que maneira as grandes plataformas digitais, como Google, Facebook e WhatsApp, podem ser responsabilizadas pelos efeitos dos seus serviços, quando empregados de forma nociva, como para propagação de fake news e discursos violentos? Que regras há sobre isso no país? 

Para todas essas perguntas, a resposta é que ainda não há regulação no Brasil. O Marco Civil da Internet (Lei no 12.965/2014) trata de conceitos gerais, mas não estabelece regras para esse tipo de mediação. É principalmente com base nessa necessidade que se pauta a proposta de criação da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, em trâmite no Congresso Nacional como Projeto de Lei (PL) no 2630/2020. Se não der conta de solucionar todo o problema, a proposta busca ao menos regular parte dele. Isso porque a legislação tem um recorte bem específico quando se refere a “plataformas de internet”, restringindo-se a redes sociais, aplicativos de mensagem e ferramentas de busca online.

Foco de disputas, a proposta é chamada de PL das Fake News pela imprensa e por defensores da medida, e apelidada de PL da Censura por seus opositores. Dentre eles, estão apoiadores do ex-presidente Jair Bolsonaro, parlamentares de oposição ao governo Lula e gigantes globais que atuam no ramo de tecnologia digital, como Google, Meta (responsável por gerenciar Facebook, Instagram e WhatsApp) e Telegram, conhecidas como big techs.

O projeto de lei de autoria do senador Alessandro Vieira (Cidadania-SE) foi apresentado em 2020, motivado por episódios de desinformação e negacionismo científico disseminados na internet durante a pandemia de covid-19 — o que a Organização Mundial da Saúde (OMS) chegou a classificar como infodemia (Radis 246). Contudo, a discussão sobre limites e responsabilidades de serviços como redes sociais e aplicativos de mensagens foi iniciada antes mesmo da crise sanitária global. Um alerta sobre a regulamentação dos serviços foi dado em 2018, durante a disputa eleitoral, devido ao uso de robôs para produção e circulação em massa de conteúdos noticiosos falsos.

Ainda assim, a tramitação do PL 2630 só foi acelerada na Câmara dos Deputados a partir de fatos graves ocorridos no início de 2023, como o uso dessas plataformas na articulação dos atentados à Democracia — culminando na tentativa de golpe de Estado, com atos de vandalismo e depredação dos prédios dos Três Poderes, em 8 de janeiro — e os atentados a escolas e creches, no início de 2023.

Foi em 25 de abril de 2023 que o PL, aprovado pelo Senado ainda em junho de 2020, entrou em regime de urgência na Câmara. A proposta entrou  na agenda de votações em 2 de maio, mas foi retirada da pauta pelo presidente da Casa, Arthur Lira (PP-AL), e até a publicação desta reportagem não avançou.

Entidades historicamente engajadas na democratização da comunicação, como o Intervozes — Coletivo Brasil de Comunicação Social, o Fórum Nacional pela Democratização da Comunicação (FNDC) e a Coalizão Direitos na Rede (CDR) posicionam-se a favor da regulamentação. Em manifesto aberto, o FNDC classifica a regulação das plataformas digitais como uma medida “necessária e urgente”. Em sentido contrário, está o apoio de peso das big techs, que controlam serviços e plataformas digitais que utilizamos todos os dias.

Segundo apuração da Agência Pública, em matéria veiculada em maio de 2023 (leia clicando aqui), do início de abril até o dia 6 de maio, o Google havia pago à Meta mais de R$ 670 mil em anúncios no Instagram e Facebook em campanha contrária à aprovação do projeto de lei na Câmara. As peças veiculadas traziam distorções como: “O PL 2630 pode aumentar a confusão sobre o que é verdade ou mentira no Brasil” ou “Um Projeto de Lei pode piorar a sua internet”, dentre outras ofensivas.

Mas, afinal, por que essas empresas têm atacado a medida regulatória? Que interesses impulsionam essa movimentação orquestrada a partir de suas próprias ferramentas? Radis entrou nessa arena para discutir o que está em disputa e conversou com alguns especialistas para entender como a regulação pode ser também uma forma de garantir o respeito à democracia e à liberdade de expressão. E não o contrário.

— Foto: Nadia Nicolau/Estudantes NINJA.

Liberdade: Por que regular não é censurar

Especialistas apontam que no cenário atual o que se observa é um claro desequilíbrio em favor das plataformas, que desfrutam de autonomia e plenos poderes na moderação de conteúdos e contas dos usuários de seus serviços. Para diminuir essa disparidade, “a lei proposta cria procedimentos que limitam o poder das empresas em relação às pessoas”. É o que afirma Paulo Rená, gestor da elaboração coletiva do Marco Civil da Internet no Brasil, pesquisador e integrante da Coalizão Direitos na Rede.

Paulo — que possui formação em Direito e também é co-diretor executivo da ONG AqualtuneLab — tem acompanhado as discussões sobre a regulação das plataformas. Ele afirma à reportagem que as empresas precisarão garantir aos usuários mais detalhes sobre suas intervenções, inclusive com a possibilidade de ações judiciais em casos de divergência. “O PL 2630 dá maior poder às pessoas, que passarão a ter garantias de que serão mais bem informadas sobre as decisões das plataformas, bem como de que haverá meios para recorrer contra erros na remoção de conteúdo”.

Hoje, a definição sobre o que será visto ou ocultado nas redes cabe exclusivamente às empresas, a partir de seus interesses comerciais. “A gente já está sujeito a diversas formas de controle e moderação por parte das plataformas que fazem isso como opção de mercado, o que afeta de maneira direta e indireta a nossa democracia em níveis que a gente nem consegue avaliar”, reflete.

Bia Barbosa, jornalista, escritora, integrante do DiraCom (Direito à Comunicação e Democracia) e uma das representantes da sociedade civil no Comitê Gestor da Internet no Brasil (CGI.br), acompanha a percepção de Paulo e é incisiva ao apontar os riscos trazidos pelo formato praticado. “O atual modelo de autorregulação das plataformas tem se mostrado insuficiente para a garantia de direitos fundamentais e, ao mesmo tempo, perigoso para a democracia”. Ela atribui esse fato à lógica de mercado na qual essas empresas trabalham, baseada na retenção da atenção dos usuários e na busca por audiência e interações, que resultam em engajamento.

Segundo Bia, por essa razão, as plataformas investem na disseminação de conteúdos desinformativos e violentos, de incitação ao ódio, com violação de direitos e que atentam contra o Estado Democrático de Direito, ao invés de inibí-los, pois geram mais audiência e repercussão. “Se a gente olhar o que aconteceu na pandemia, nos processos eleitorais e, principalmente, no 8 de janeiro, apesar de as plataformas terem nos seus termos de uso algumas regras para que elas próprias removam conteúdos que atentem contra os direitos humanos ou a democracia, o que vimos foram esses conteúdos circulando abertamente e amplamente nessas redes”.

“A desinformação gera lucro para as plataformas.”

Bia Barbosa (DiraCom)

A jornalista e ativista pela democratização da comunicação afirma ainda que esses episódios demonstram que as big techs se pautam exclusivamente pelo lucro em seus negócios. “Na lógica capitalista, as plataformas não vão se autorregular para coibir esse tipo de conteúdo. A desinformação gera lucro para as plataformas”, revela.

Paulo e Bia afirmam que a regulação dos serviços de internet não é sinônimo de censura. “Não tem censura, algo que estabeleça ‘no dia seguinte à aprovação da lei as plataformas vão remover conteúdos a pedido do governo’”, argumenta Paulo. Segundo Bia, o PL 2630 não diz que o governo vai definir quais são os conteúdos que devem ser removidos, o que seria uma clássica violação dos padrões internacionais de proteção à liberdade de expressão. “O projeto determina que as plataformas façam uma análise sistemática dos riscos gerados pelo seu modelo de negócio para questões como proteção aos direitos fundamentais e à democracia”, explica. 

Ela adverte que a liberdade de expressão — muitas vezes usada como pretexto para sustentar posicionamentos discriminatórios e criminosos — precisa andar junto com outros direitos básicos. “É importante a gente dizer que a liberdade de expressão é um direito fundamental que precisa ser exercido em consonância com outros direitos fundamentais”, pontua. “Ninguém pode alegar exercício da liberdade de expressão para incitar violência, promover o racismo e a violência contra as mulheres, destilar preconceitos e discurso de ódio. Isso não cabe nos padrões internacionais de exercício democrático da liberdade de expressão”.

— Foto: Nadia Nicolau/Estudantes NINJA.

Responsabilidade: Por que as plataformas precisam se adequar às regras brasileiras

Com a instituição da nova lei, para assegurar a liberdade de expressão dos usuários e a transparência de suas decisões, as empresas de tecnologia terão de se adequar e atuar mais proativamente, assumindo novas obrigações. A maior diferença em relação ao que já se pratica, porém, está na responsabilização pelos conteúdos pagos. 

“Hoje, a partir do Marco Civil [da internet], as plataformas só passam a ter responsabilidade sobre conteúdos postados por usuários depois de uma decisão judicial. Com a nova lei, elas serão também responsáveis quando o conteúdo for impulsionado, porque a plataforma terá um dever decorrente dessa relação comercial que busca ampliar o alcance da publicação”, explica Paulo.

Com exceção das mensagens impulsionadas, de modo geral as plataformas passarão a ser obrigadas a avaliar e agir apenas em casos específicos de risco grave e iminente à integridade física das pessoas, à saúde pública e à democracia, deflagrados em no máximo 30 dias. Não sendo obrigadas, portanto, a verificar todo o universo de mensagens por elas veiculadas. “Não terão obrigação maior de remover conteúdo do que já acontece atualmente. Mas sim em situações específicas, em que haja um mecanismo para acionar uma postura mais intensa e proativa”, destaca o pesquisador da Coalizão Direitos na Rede.

Ainda segundo Paulo, essa responsabilização fortalece a democracia ao “proteger o público de conteúdos que violem direitos humanos, que sejam ilegais ou mentirosos, por exemplo, em relação a conceitos científicos ou fatos históricos bem documentados, como escravidão, holocausto, guerra civil, ditadura militar, resultado de eleições e pandemia”. 

Há, ainda, a proposta de um órgão colegiado para fiscalizar essas regras e proteger as empresas de terem seus serviços bloqueados por juízes de primeira instância. É o que acontece quando há um bloqueio temporário do WhatsApp, por exemplo, por decisão judicial. “Por um lado, o projeto amplia a responsabilidade das plataformas em relação a conteúdo impulsionado; e, por outro, salvaguarda o interesse público de ter acesso ao que está na plataforma, dificultando os bloqueios”, diz ele.

Para Bia Barbosa, enquanto as plataformas não forem responsabilizadas pelo teor das postagens que impulsionam, seus interesses comerciais continuarão sendo o principal critério para propagação de conteúdos não verificados e potencialmente danosos à sociedade. “Quando você tem campanhas de desinformação organizadas e orquestradas recebendo dinheiro para impulsionar determinados tipos de conteúdo, com alta capacidade de engajamento de usuários, tudo isso interessa às plataformas. É óbvio que elas não vão reduzir a circulação desse tipo de conteúdo dentro delas por livre e espontânea vontade”.

Postagens que negam as atrocidades cometidas na ditadura militar ou que levantam falsas acusações em relação às vacinas — afirmando que elas podem causar autismo ou que modificam o DNA humano — circulam livremente nessas plataformas. Por isso, Bia ressalta a urgência de atuação do Estado na regulação desses serviços. 

“Quando a gente fala ‘o Estado brasileiro’, não estamos falando de um governo específico. Mas, sim, das diferentes instituições do país para estabelecer mecanismos regulatórios que garantam minimamente que esse ambiente digital respeite os direitos humanos e a democracia”, destaca.

Segundo a ativista, a futura legislação não vai interferir diretamente nem impedir que essas empresas funcionem ou operem no país. “Não é disso que se trata. Mas [o projeto] vai determinar que a livre iniciativa respeite valores fundamentais para nossa democracia e, nesse sentido, estabelecer algumas regras para o funcionamento dessas empresas”, considera.

— Fotos: Nadia Nicolau/Estudantes NINJA.

“Com transparência nos critérios e nas práticas das plataformas digitais, será viável exigir mais responsabilidade e proteger efetivamente nossos direitos humanos fundamentais.”

Paulo Rená (AqualtuneLab e CDR)

Transparência: Por que as empresas deverão informar suas ações

“Com transparência nos critérios e nas práticas das plataformas digitais, será viável exigir mais responsabilidade delas e proteger efetivamente os direitos humanos fundamentais, especialmente nossa liberdade de expressão online”. Com essa afirmação, Paulo Rená resume e agrupa os três principais pilares do PL 2630, enfatizando a transparência como a chave para a imprescindível liberdade de expressão na internet. “A gente precisa ter transparência, isso é urgente, para que a sociedade não fique refém dos segredos de negócio”.

Radis também conversou com Carlos Eduardo Barros, pesquisador do Laboratório de Estudos de Internet e Mídias Sociais da Universidade Federal do Rio de Janeiro (NetLab/UFRJ). Para ele, tanto o conteúdo veiculado quanto o funcionamento dos sistemas de anúncios digitais necessitam de mais transparência. “Muitos anunciantes questionam como garantir que o serviço foi prestado corretamente ou se um dos concorrentes obteve vantagem indevida. A ‘caixa preta’ dos algoritmos é um obstáculo para a fiscalização do mercado e, inclusive, pode ser considerada uma violação do direito do consumidor”, declara.

Carlos Eduardo detalha um pouco mais sobre esse processo: “Por um lado, regulamentar significa desmistificar parte desse sistema, compartilhando dados que já existem e hoje são uma vantagem competitiva. Por outro, a regulamentação pode revelar ainda mais problemas e exigir maiores investimentos para que essas empresas mantenham sua atuação no Brasil, por exemplo, a contratação de mais brasileiros para identificar e moderar conteúdos tóxicos e criminosos”.

“A transparência é o começo da possibilidade de um avanço civilizatório na internet”

Carlos Eduardo Barros (NetLab/UFRJ)

Nessa linha, o pesquisador da UFRJ afirma que “a transparência é o começo da possibilidade de um avanço civilizatório na internet, em que a população brasileira — e de cada país — possa participar não só do consumo, mas também da regulamentação dos serviços que utiliza, garantindo que estejam alinhados às leis do país”. Para ele, sob esse ponto de vista, “a regulamentação também é uma questão de soberania nacional”. E pode contribuir muito para a melhoria dos serviços, “à medida que toda a sociedade colabore na tarefa de fiscalização das redes, na qual as plataformas têm se mostrado tão ineficazes sozinhas”, conclui.

IMPACTOS NA SAÚDE COLETIVA

As plataformas digitais influenciam as decisões das pessoas nos mais variados assuntos, inclusive na saúde. Essa é a avaliação de Marcelo Fornazin, pesquisador da Escola Nacional de Saúde Pública Sergio Arouca (Ensp/Fiocruz) e um dos coordenadores do GT Informação em Saúde e População da Associação Brasileira de Saúde Coletiva (Abrasco). E por isso, segundo ele, esses serviços devem ser fiscalizados pelo controle social.

“Longe de serem espaços neutros, essas ferramentas têm um papel político grande. Não são apenas atores que estão no mercado, porque as pessoas tomam decisões, inclusive de saúde [a partir dos conteúdos veiculados na internet]”, diz. Ainda segundo Marcelo, que atua com os temas de saúde digital e produção de informação, essas interferências se refletem em condutas e comportamentos cotidianos, tais como “sobre se vacinar ou não, aderir a um tratamento ou não, fazer exercícios físicos ou acompanhar uma gestação”. “É importantíssimo buscar meios de produzir informação confiável, dar acesso e responsabilizar quando a informação for danosa ou coloque a população em risco”.

Ao comentar a participação das redes sociais e aplicativos de mensagens na formulação e disseminação de conteúdo antivacina no ápice da pandemia de covid-19, Marcelo destaca que o principal critério usado pelas plataformas foi o de mercado e não de qualificação das informações. Ou seja, conteúdos pagos para serem impulsionados ou aqueles mais engajados circularam amplamente, independentemente da acurácia daquelas informações. E para isso, artifícios foram usados pelos produtores desses conteúdos, como tentar atribuir caráter de ‘cientificidade’ aos argumentos, dando visibilidade a estudos contraditórios, ou utilizando-se da estética de veículos jornalísticos e até mesmo apelando para a liberdade individual de escolha.

“A regulação é para dizer os limites desses atores. Assim como a gente tem uma regulação da vigilância sanitária, com a Anvisa, que impõe limites e impede o uso de produtos que causem danos à saúde”.

Marcelo Fornazin (Ensp/Fiocruz)

“A regulação é para dizer os limites desses atores. Assim como a gente tem uma regulação da vigilância sanitária, com a Anvisa, que impõe limites e impede o uso de produtos que causem danos à saúde”, avalia. Marcelo destaca que a regulação das plataformas evita riscos para a sociedade e, por consequência, para a saúde pública, por decisões mal informadas. “É importante pensar nessa regulação e em formas alternativas de produzir e circular informações de confiança”, orienta, defendendo que a produção seja coletiva, com participação da sociedade, e não verticalizada.

O pesquisador da Fiocruz destaca outro fator que potencializa a importância dessas ferramentas como fonte de consulta para grande parte da população. Ele lembra que, em muitos casos, as operadoras de telefonia oferecem pacotes de dados com acesso limitado à internet, que geralmente restringem-se ao WhatsApp e mídias sociais, como Facebook e Instagram — prática conhecida como zero rating. Logo, o que a pessoa consome naquelas plataformas não pode ser checado em fontes oficiais e, portanto, acaba sendo tomado como verdade. 

Marcelo defende que os princípios do SUS, como a universalização e a descentralização, sejam aplicados na democratização do acesso à informação — já que nem todos os brasileiros possuem acesso livre à internet e as informações produzidas ainda são muito centralizadas nos grandes centros, ignorando as especificidades locais, como observado na prescrição de condutas padronizadas durante a pandemia. Ele também ressalta a importância de se fiscalizar e qualificar tais informações. “As plataformas deixam de ser um serviço que a pessoa está usando e passam a ser o mundo onde ela está vivendo”, adverte.

Compartilhe:

Share on whatsapp
Share on twitter
Share on facebook
Share on email
Share on linkedin
Share on telegram
Share on google
Language »
Fonte
Contraste