O que está em jogo no julgamento do STF que mira as redes sociais
O desfecho do caso pode criar um marco na tentativa de impor às plataformas responsabilidade sobre o que veiculam
Em janeiro de 2010, uma professora de português bateu à porta da Justiça em Belo Horizonte pedindo que o Google excluísse uma comunidade do Orkut — rede social pioneira, muito popular nos anos 2000 a 2010 — criada por ex-alunos para postar comentários pejorativos a seu respeito. “Cabelo de óleo de cozinha”, “mulher baranga e insuportável” e “te odiamos” eram alguns dos dizeres registrados na página que levava o nome e a foto dela e estava disponível para qualquer um ver. Antes, a docente notificou o Google, mas teve como resposta que o conjunto de posts “não viola de forma clara as leis do mundo real ou infringe as nossas políticas”. A professora ganhou indenização de 10 000 reais, mantida pelo TJ-MG. Mesmo com o Orkut fora do ar desde 2014, veio do Google a iniciativa de escalar o caso com sucessivos recursos, até que o último fosse parar na pauta da próxima quarta, 27, do Supremo Tribunal Federal. A ação, porém, ganhou outra dimensão: o desfecho do julgamento deve criar um marco na tentativa de impor às redes sociais responsabilidade sobre o que veiculam.
O processo é um dos sete pautados pelo presidente do STF, Luís Roberto Barroso, que tocam em alguns calos das big techs. Duas ações questionam a constitucionalidade do artigo 19 do Marco Civil da Internet, em vigor desde 2014, que estabelece que as redes só têm responsabilidade pelos conteúdos — e, portanto, podem ser punidas — quando desrespeitam ordens judiciais para removê-los. A Advocacia-Geral da União e outras entidades reivindicam que elas sejam responsabilizadas pelo conteúdo que usuários veiculam, independentemente de serem acionadas pela Justiça. Alguns envolvidos no processo defendem a exigência de sistema de moderação prévio para a remoção de publicações.
O tema é central para as companhias, tanto que Meta (dona do WhatsApp, Facebook e Instagram), X (antigo Twitter), ByteDance (dona do TikTok) e Google já se habilitaram para participar do julgamento. Outro ponto vital para as companhias é se a Justiça pode tirar as plataformas do ar quando elas descumprem decisões. Parte dessas ações começou quando, entre 2018 e 2019, magistrados suspenderam o funcionamento do WhatsApp em todo o país por conta da recusa em fornecer dados de usuários. Em agosto deste ano, o ministro Alexandre de Moraes suspendeu o X porque, entre outros motivos, a empresa descumpria ordens judiciais e não tinha representante no país que pudesse ser responsabilizado.
O movimento dos magistrados indica que o arcabouço legal que rege as plataformas digitais sairá do julgamento diferente do que é hoje. Em agosto, em um gesto combinado, três ministros (Edson Fachin, Dias Toffoli e Luiz Fux), relatores de ações sobre o tema, liberaram seus processos para serem pautados por Barroso, indicando que era hora de o STF enfrentar o tema. Seis dos onze membros da Corte já disseram em claro e bom som que as redes precisam ser reguladas. Só na última semana, o decano Gilmar Mendes e Alexandre de Moraes ergueram essa bandeira. “Não há nenhum setor, e nunca houve nenhum na história da humanidade, que afete muitas pessoas e não tenha sido regulamentado”, disse Moraes. Cármen Lúcia, presidente do TSE, falou que existe um “cabresto digital” na internet brasileira que influencia o processo eleitoral, e Flávio Dino ligou a falta de regulamentação das redes ao ataque a bomba ao Supremo no dia 13 por um homem, que se matou. Dias Toffoli já criticou a omissão do Congresso, e Barroso sinalizou que, se a mudança não vier do Legislativo, “o Supremo vai decidir”. A maior chance de divergência vem de André Mendonça, que já defendeu a “autocontenção” da Corte em um seminário sobre inteligência artificial. Mas vale lembrar que o STF referendou por unanimidade a decisão de Moraes de retirar o X do ar.
Apesar de jogarem duro contra a regulação, as plataformas já trabalham por uma redução de danos. Representantes das big techs estiveram com os onze ministros (individualmente) para sensibilizá-los, mas a empreitada não encontrou acolhida. A Meta redesenhou a sua estratégia e apresentou um “meio-termo”: manter o artigo 19 em vigor, mas ampliar a interpretação do artigo 21 para que as redes sejam obrigadas a remover, sem ordem judicial, conteúdos que tenham exploração sexual infantil, terrorismo, racismo e tentativa ou defesa de abolição violenta do Estado democrático de direito — temas que acreditam ser menos subjetivos e menos difíceis do que, por exemplo, fake news. Um dos receios das plataformas é que, além de terem de investir em moderação e filtragem de conteúdo, se abra um precedente para que as pessoas possam pedir danos morais por causa de conteúdos ofensivos ou falsos. Nos julgamentos, o tribunal pode decidir não só se mantém ou revoga o artigo 19, mas dar a ele uma nova interpretação. Algo parecido ocorreu com a análise, em junho, do recurso que questionava o artigo 28 da Lei de Drogas — o Supremo definiu que portar droga para uso pessoal não era crime e estabeleceu os parâmetros (como peso e circunstâncias da apreensão) para decidir se o suspeito era traficante ou usuário.
O avanço do Judiciário é consequência da omissão do Congresso, paralisado pela divisão ideológica em torno do tema. Um exemplo foi o Projeto de Lei 2630/2020 (o PL das Fake News), que morreu após bombardeio pesado de parlamentares de direita e das big techs. Na véspera da votação no plenário, o Google chegou a colocar um texto contra o projeto em sua página principal na internet. O PL foi engavetado pelo presidente da Câmara, Arthur Lira (PP-AL), que criou um grupo de trabalho para apresentar um texto mais “maduro”, iniciativa que nunca saiu do papel porque os partidos não indicaram representantes para o colegiado. O deputado Orlando Silva (PCdoB-SP), que foi relator do PL das Fake News, afirma que a omissão do Parlamento pode abrir caminho para o STF, o que seria “lamentável” em sua visão. “A regulação de plataformas digitais é tema que deveria ser objeto de lei, que reflita a média do pensamento da sociedade brasileira, não de uma decisão judicial”, afirma. É quase certo que eventual regulamentação pelo Judiciário irá reavivar, mais uma vez, a polêmica sobre a interferência do STF no Parlamento.
Há inúmeros outros exemplos de projetos que tocam no tema e continuam acumulando poeira nas gavetas do Congresso, alguns desde 2019. Mesmo a proposta que regulamenta a inteligência artificial, apresentada pelo presidente do Senado e do Congresso, Rodrigo Pacheco (PSD-MG), em 2023, não chegou a lugar algum. Alguns parlamentares têm expectativa de que a discussão seja retomada após a saída de Lira. Candidato mais forte ao comando da Câmara, Hugo Motta (Republicanos-PB) disse que, “infelizmente, uma narrativa foi criada”, o que acabou inviabilizando a votação do PL das Fake News. “Acredito que, chegando à presidência da Casa, vamos ter que chamar os partidos para discutir esse assunto”, disse. Orlando acha que a regulação só avança se a gestão Lula apoiar a ideia, mas nem isso deve ajudar. “É mais fácil andar no Judiciário do que aqui”, admite Rubens Pereira Jr. (PT-MA), vice-líder do governo.
Além das flagrantes ameaças à democracia e à segurança do cidadão, o debate sobre mídias sociais inclui outros receios, como a exposição de crianças e adolescentes a conteúdos nocivos. No Brasil, o TikTok entrou na mira da Autoridade Nacional de Proteção de Dados (ANPD) por permitir o acesso de menores de 13 anos. A preocupação com esse risco levou Mark Zuckerberg, CEO da Meta, a testemunhar neste ano no Congresso dos EUA sobre abuso infantil nas redes. O estado de Nova York aprovou, também neste ano, a lei Safe for Kids, que restringe algoritmos para evitar a oferta de conteúdo “viciante” a menores. “Mesmo nos EUA há limites a que as plataformas devem obedecer para proteger os usuários”, diz Veridiana Alimonti, diretora para políticas na América Latina da Electronic Frontier Foundation (EFF).
Algumas inspirações sobre regulação podem vir da Europa. Na Alemanha, desde 2017, uma lei obriga as plataformas a excluir em até 24 horas publicação de cunho “manifestamente ilegal”. Em 2022, a União Europeia aprovou a Lei de Serviços Digitais (DSA, em inglês), que determina que provedores precisam monitorar e remover conteúdos relacionados a racismo, terrorismo, homofobia, violência explícita e incitação ao suicídio. As regras são fiscalizadas pela Comissão Europeia e agências reguladoras de cada país, que podem aplicar multas sobre os lucros e, em última instância, suspender o serviço. “A ideia de um órgão colegiado é inverter o processo, que hoje começa pelo Judiciário, e delegar à Justiça somente a análise de casos mais complexos”, explica Patrícia Peck, sócia-fundadora da Peck Advogados e especialista em direito digital. Em 2023, o X tornou-se o primeiro alvo da DSA por deixar de moderar desinformação e conteúdo violento relacionados à guerra entre Israel e Hamas.
Esses exemplos mostram como o Brasil está atrasado no debate. O Marco Civil da Internet foi a pedra fundamental na estrutura que regula o ambiente digital, mas, uma década depois, precisa de ajustes para refletir o cenário atual, bem mais turbulento e amplo — dois em cada três brasileiros (144 milhões) são usuários de ao menos uma rede social (veja o quadro). A ideia explícita no artigo 19, por exemplo, é “assegurar a liberdade de expressão e impedir a censura”. Os ataques a escolas, os distúrbios do 8 de Janeiro e as pregações contra as urnas e as instituições da República mostram que elas se tornaram terreno fértil para a disseminação de práticas criminosas. Somente em 2024, o Supremo e o TSE foram alvos de mais de 6 200 publicações perigosas — incluindo ameaças a ministros, questionamentos à legitimidade da Justiça e defesa de golpe —, segundo levantamento feito pelo Instituto Democracia em Xeque. “As plataformas falham recorrentemente em moderar violência política, racismo, negacionismo climático e discursos antivacina”, afirma Ana Julia Bernardi, diretora de Projeto do instituto.
O desvirtuamento do uso da liberdade de expressão não pode justificar nem embasar a prática de crimes. Por isso, precisa ser evitado e punido por instrumentos legais — e isso, definitivamente, não tem nada a ver com a abominável prática de censura. Plataformas de mídia se estabeleceram como veiculadores profissionais de informação porque têm esse compromisso com a livre expressão de ideias e se submetem ao arcabouço legal do país, o que inclui serem responsáveis por aquilo que publicam. Não há motivo para as redes sociais continuarem atuando sem as mesmas regras.
Publicado em VEJA de 22 de novembro de 2024, edição nº 2920