Publicado originalmente em *Desinformante. Para acessar, clique aqui.
A Lei de Serviços Digitais (DSA), o conjunto de regras da UE que visa tornar o ambiente online mais seguro, mais justo e mais transparente começou a vigorar, em 17 de fevereiro, para todas as plataformas digitais. Desde o final de agosto de 2023, o DSA já começou a valer para as 19 plataformas online de grande dimensão (VLOP) e buscadores (VLOSE) designados em abril de 2023 (com mais de 45 milhões de usuários mensais em média).
A partir de agora, conforme comunicado da Comissão Europeia, todas as plataformas com usuários na União Europeia, com exceção das pequenas e microempresas com menos de 50 empregados e volume de negócios anual inferior a 10 milhões de euros, devem implementar medidas para:
– Combater conteúdos, bens e serviços ilegais
– Proteger os menores: incluindo uma proibição total de direcionar aos menores anúncios baseados em perfis ou nos seus dados pessoais.
– Informar aos usuários sobre os anúncios que chegam até eles, por que estão vendo aqueles anúncios, quem pagou por eles
– Proibir anúncios direcionados aos usuários com base em dados confidenciais, como crenças políticas ou religiosas, preferências sexuais, etc.
– Fornecer declarações sobre qualquer decisão de moderação de conteúdo, por exemplo, remoção de conteúdo, suspensão de conta, etc. e manter a declaração de motivos num banco de dados do DSA
– Fornecer aos usuários acesso a um mecanismo de reclamação para contestar decisões de moderação de conteúdo.
– Publicar um relatório sobre seus procedimentos de moderação de conteúdo pelo menos uma vez por ano.
– Fornecer ao usuário termos e condições claros e incluir os principais parâmetros com base nos quais seus sistemas de recomendação de conteúdo funcionam.
– Designar um ponto de contato para as autoridades, bem como para os usuários.
Coordenadores de serviços digitais nos Estados-Membros
As plataformas não designadas como VLOP ou VLOSE serão supervisionadas nos Estados-Membros por um regulador independente que atuará como coordenador nacional de serviços digitais (DSC). Será responsabilidade dos DSCs garantir que essas plataformas cumpram as regras. Os DSC supervisionarão e aplicarão o DSA para as plataformas estabelecidas no seu território.
Na prática, os Coordenadores de Serviços Digitais irão:
Ser o primeiro ponto de contato para reclamações de usuários sobre infrações ao DSA por qualquer plataforma, incluindo VLOPs e VLOSEs. O Coordenador dos Serviços Digitais transmitirá, quando apropriado, a reclamação ao Coordenador dos Serviços Digitais do Estado-Membro de estabelecimento da plataforma, se for caso disso, acompanhada de um parecer.
Certificar mecanismos de apelação extrajudicial existentes para que os usuários resolvam reclamações e contestem decisões de moderação de conteúdo.
Avaliar e atribuir o estatuto de sinalizadores de confiança a candidatos adequados ou entidades independentes que tenham demonstrado experiência na deteção, identificação e notificação de conteúdos ilegais online.
Processar solicitações de pesquisadores para acesso a dados de VLOPs e VLOSEs para pesquisas específicas. Os DSCs examinarão os pesquisadores e solicitarão acesso aos dados em seu nome.
Estar dotados de fortes poderes de investigação e fiscalização para garantir o cumprimento da DSA pelas empresas estabelecidas no seu território. Poderão ordenar inspeções na sequência de uma suspeita de violação do DSA, impor multas às plataformas em linha que não cumpram o DSA e impor medidas provisórias em caso de danos graves à esfera pública.
Próximos passos
Em março de 2024, a Comissão Europeia pretende adotar orientações sobre medidas de mitigação de riscos nos processos eleitorais. Está prevista uma consulta em abril, com adoção até julho e entrada em vigor em outubro de 2024. Em maio, a Comissão planeja adotar modelos de relatórios de transparência.
Comissão Europeia abre processo contra TikTok
O comissário europeu Thierry Breton anunciou pelo X que foi aberta uma investigação sobre o TikTok por suspeita de violação de transparência e falhas na obrigação de proteção dos menores de idade. A investigação leva em conta o design viciante do aplicativo e a falta de limites de tempo de tela, a ausência de verificação de idade e problemas nas configurações de privacidade padrão. O processo foi aberto no âmbito do DSA.