A medida inovadora de países da UE para impedir que crianças usem redes sociais
Protótipo do aplicativo poderá ser personalizado, com objetivo de que versões sejam lançadas dentro de alguns meses

A Comissão Europeia anunciou nesta segunda-feira, 14, que França, Espanha, Itália, Dinamarca e Grécia testarão um aplicativo de verificação de idade em meio às preocupações do uso precoce de redes sociais por crianças. O protótipo do aplicativo poderá ser personalizado, com o objetivo de que as versões sejam lançadas dentro de alguns meses. As modificações buscarão atender a normas internas dos cinco países — a França, por exemplo, quer aumentar a idade mínima para 15 anos, dois a mais ao que é demandado pelas plataformas.
“Ele (o aplicativo) permitirá que os usuários comprovem facilmente que têm mais de 18 anos, protegendo as crianças de conteúdo inapropriado”, disse a chefe de tecnologia da UE, Henna Virkkunen, a repórteres.
Ao mesmo tempo, o braço executivo da União Europeia publicou diretrizes que insta plataformas a adotarem medidas para proteger menores no escopo da Lei de Serviços Digitais (DSA, na sigla em inglês) do bloco. A legislação entrou em vigor nos Estados-membros da UE apenas em fevereiro do ano passado. O texto prevê duras regras sobre o funcionamento de redes sociais e de mecanismos de busca, como Google.
+ Após Trump anunciar tarifa de 30%, UE adia retaliação e dobra aposta em acordo com EUA
Cerco da DSA
No ano passado, sites pornô entraram na mira da Comissão Europeia. As empresas de conteúdo adulto Pornhub, Stripchat e XVideos foram consideradas plataformas de grande dimensão em dezembro e, por isso, estão debaixo do guarda-chuva da DSA, que procura retirar conteúdos ilegais e prejudicais de circulação.
O órgão estabeleceu um conjunto de normas para plataformas de maior porte. Entre elas estão “fornecer mecanismos de fácil utilização que permitam aos utilizadores ou entidades notificar conteúdos ilegais”, “publicar uma vez por ano relatórios de transparência sobre seus processos de moderação de conteúdo” e “informar imediatamente as autoridades responsáveis pela aplicação da lei caso tomem conhecimento de qualquer informação que dê origem a suspeitas de que um crime que envolva uma ameaça à vida ou à segurança de uma pessoa ocorreu, está ocorrendo ou é provável que ocorra, inclusive no caso de abuso sexual infantil”.
Os portais também foram instados a “proteger os direitos da criança e impedir que menores acedam a conteúdos pornográficos online, nomeadamente através de ferramentas de verificação de idade”, a elaborar relatórios sobre “qualquer efeito negativo na proteção da saúde física e mental dos menores”. Eles deverão, ainda, “cumprir requisitos adicionais de transparência, incluindo a publicação de relatórios de transparência sobre decisões de moderação de conteúdo e gestão de riscos semestralmente, além de relatórios sobre seus riscos sistêmicos e resultados de auditoria uma vez por ano.”