Em 13 de novembro de 2015, oito terroristas ligados ao Estado Islâmico realizaram uma série de ataques simultâneos em diversos pontos de Paris. Eles explodiram bombas em restaurantes e nas imediações de um estádio de futebol lotado e abriram fogo contra uma multidão de pessoas que assistiam a um show na casa de espetáculos Bataclan. Entre os 130 mortos no atentado estava a estudante americana Nohemi Gonzalez, que na época fazia uma viagem de intercâmbio à capital francesa. Pouco mais de sete anos depois, o episódio volta aos holofotes, mas por um motivo diferente. A família de Gonzalez move um ruidoso processo contra o Google sob a alegação de que uma das maiores empresas do mundo teria contribuído para o recrutamento dos terroristas. Para ser mais direto: o Google deveria ser responsabilizado pelos ataques.
A mãe e o padrasto de Nohemi Gonzalez argumentam que o YouTube, de propriedade do Google, amplificou as mensagens de recrutamento e arrecadação de fundos do grupo Estado Islâmico por meio de seus algoritmos, que disseminaram conteúdos produzidos pelos radicais para diferentes usuários. Segundo a família Gonzalez, trata-se de uma violação das normas americanas que punem a cumplicidade com organizações terroristas. Por sua vez, a defesa do Google se apoia na Lei das Comunicações dos Estados Unidos, promulgada em 1996. Em linhas gerais, a legislação dificulta a responsabilização civil das empresas de tecnologia por conteúdos publicados por seus usuários. Não se trata de um caso único. Outro processo pôs o Twitter na mira da Justiça, e é provável que novas ações desse tipo apareçam.
A depender da decisão da Suprema Corte, prevista para junho, o caso Gonzalez versus Google mudaria para sempre a forma como as plataformas digitais lidam com a moderação de conteúdo. Em um sentido mais amplo, a eventual vitória da família Gonzalez transformaria o futuro da própria internet, a ágora em que quase tudo é permitido, inclusive postagens criminosas. Não será uma batalha fácil. Há pressão constante para que as redes sociais — Facebook, Instagram, YouTube, TikTok e Twitter, para citar as mais potentes — e as plataformas de busca, sendo o Google a mais importante delas, sejam rigorosas no controle dos conteúdos veiculados em suas páginas.
As mídias digitais se tornaram nos últimos anos um campo livre para a publicação de conteúdos questionáveis e perigosos. Eles vão de teorias da conspiração relativamente inofensivas, como a afirmação de que a terra é plana, a tutoriais sobre como fabricar bombas caseiras. O negacionismo durante a pandemia, lembre-se, custou a vida de milhares de pessoas. Estudos apontam que os algoritmos promovem esse tipo de conteúdo porque costumam gerar engajamento maior, e o uso da inteligência artificial para personalizar a experiência dos usuários é eficaz em encontrar as informações buscadas, sejam elas positivas ou não.
O que está em jogo é um tema caro a diversos países, mais especialmente sensível nos Estados Unidos: a liberdade de expressão, defendida com louvor na Primeira Emenda da Constituição americana. Em carta publicada no blog do Google, Halimah DeLaine Prado, uma das mais ativas conselheiras da empresa, afirma que a Seção 230 da Lei das Comunicações garante uma internet livre para todos e que, em última instância, a mudanças das regras comprometeria a viabilidade financeira de quem lida com a publicação de conteúdo. “Reduzir a Seção 230 levaria empresas e sites a ser incapazes de operar e a mais ações judiciais que prejudicariam editores, criadores e pequenas empresas”, escreveu ela. “A onda crescente de litígios reduziria o fluxo de informações de alta qualidade na internet.”
As grandes empresas de tecnologia, especialmente buscadores como o Google, também argumentam que não produzem conteúdo, mas apenas oferecem sugestões aos usuários a partir do histórico de navegação e de preferências pessoais. “Há uma grande dificuldade de caracterização da responsabilidade”, afirma o advogado Marcos Poliszezuk, especializado no tema. “A principal atividade do Google é buscar conteúdo, mas ele não dá temas. Eu não abro o Google para ver o que me sugere. Primeiro, digito algo para procurar. Por isso, responsabilizar o veículo será complicado.”
A moderação oferece um caminho possível. Ainda assim, há lacunas de difícil solução. Sistemas automáticos detectam palavras-chave, mas não sabem quando há incitação ao crime ou mera menção ao tema. Bloquear conteúdo com a palavra “nazismo” nas redes sociais, por exemplo, retiraria de circulação textos históricos e críticos, junto com todo o resto. Lógica idêntica vale para o imenso rosário de assuntos que circulam na internet. Uma mesma publicação sobre o sistema de recrutamento do Estado Islâmico pode ser consumida de diferentes formas, a depender do perfil do usuário da rede social. Entender o processo brutal usado pelos terroristas é importante para evitar que jovens se sintam atraídos pelo grupo, mas também serve de porta de entrada para outros.
No Brasil, existe uma sólida legislação sobre o tema. Enquanto a Seção 230 da lei americana é considerada obsoleta por ativistas, o Marco Civil que regula a internet brasileira é mais atual, de 2014. Ele estipula que as plataformas só podem ser responsabilizadas por conteúdos de terceiros no caso de se recusarem a cumprir ordens judiciais de remoção. Apesar de recentes, as regras já passaram por providenciais revisões. A Lei Geral de Proteção de Dados Pessoais (LGPD), de 2018, atualizou as diretrizes de como os dados pessoais dos cidadãos podem ser coletados. Novas modificações deverão ser adicionadas, especialmente se o projeto de lei 2630, conhecido como PL das Fake News, for aprovado. De autoria do senador Alessandro Vieira (Cidadania-SE), o texto propõe medidas de combate à disseminação de conteúdo falso nas redes sociais antes da necessidade de ordens judiciais. O ministro Luís Roberto Barroso, do Supremo Tribunal Federal, já se manifestou a favor das mudanças. A discussão é complexa e certamente ganhará novos desdobramentos nas próximas semanas. Seja como for, ela mostra a necessidade de repensar a maneira como os conteúdos são promovidos ou impulsionados nas redes sociais. No Brasil e no mundo, a própria democracia depende disso.
Mais um gigante na berlinda
Embora esteja sendo julgado de forma separada, o caso Twitter versus Taamneh também busca responsabilizar a rede social pela morte de uma pessoa em um ataque terrorista. Em 2017, o cidadão jordaniano Nawras Alassaf perdeu a vida durante um atentado promovido pelo grupo extremista Estado Islâmico em Istambul. A principal diferença, no entanto, é que o caso não está centrado na liberdade de expressão e na revisão da chamada Seção 230. No processo contra o Twitter, a Justiça avaliará se as plataformas sociais podem ser consideradas incentivadoras do terrorismo por não oferecerem mecanismos eficazes para derrubar o conteúdo do grupo e por recomendar os vídeos da organização terrorista por meio de seus algoritmos. Isso representaria uma violação da Lei Antiterrorismo de 1990.
A dificuldade é apontar a relação direta entre os conteúdos veiculados na plataforma e o atentado em questão. A defesa do Twitter alega que, se tivesse recebido algum aviso sobre o perigo iminente, teria tomado providências. Como isso não ocorreu, não teria responsabilidade no caso. Há, ainda, um debate jurídico sobre a interpretação de expressões da Lei Antiterrorismo. Um trecho diz que alguém só pode ser acusado de conivente com o terror se forneceu “conscientemente assistência substancial”. A sentença deverá sair em junho, mas o Twitter está sob pressão. Desde que Elon Musk comprou a rede social, no ano passado, novas regras passaram a valer. Milhares de funcionários foram demitidos, incluindo times de moderação de conteúdo, e Musk defende um espaço de total liberdade. Com isso, conteúdos polêmicos têm se popularizado.
Publicado em VEJA de 8 de março de 2023, edição nº 2831