Assine VEJA por R$2,00/semana
Continua após publicidade

O processo contra o Google que pode mudar normas que regem as redes

Família de vítima de atentado em Paris acusa a big tech de promover o ataque

Por André Sollitto Materia seguir SEGUIR Materia seguir SEGUINDO Atualizado em 3 mar 2023, 10h10 - Publicado em 3 mar 2023, 06h00

Em 13 de novembro de 2015, oito terroristas ligados ao Estado Islâmico realizaram uma série de ataques simultâneos em diversos pontos de Paris. Eles explodiram bombas em restaurantes e nas imediações de um estádio de futebol lotado e abriram fogo contra uma multidão de pessoas que assistiam a um show na casa de espetáculos Bataclan. Entre os 130 mortos no atentado estava a estudante americana Nohemi Gonzalez, que na época fazia uma viagem de intercâmbio à capital francesa. Pouco mais de sete anos depois, o episódio volta aos holofotes, mas por um motivo diferente. A família de Gonzalez move um ruidoso processo contra o Google sob a alegação de que uma das maiores empresas do mundo teria contribuído para o recrutamento dos terroristas. Para ser mais direto: o Google deveria ser responsabilizado pelos ataques.

A mãe e o padrasto de Nohemi Gonzalez argumentam que o YouTube, de propriedade do Google, amplificou as mensagens de recrutamento e arrecadação de fundos do grupo Estado Islâmico por meio de seus algoritmos, que disseminaram conteúdos produzidos pelos radicais para diferentes usuários. Segundo a família Gonzalez, trata-se de uma violação das normas americanas que punem a cumplicidade com organizações terroristas. Por sua vez, a defesa do Google se apoia na Lei das Comunicações dos Estados Unidos, promulgada em 1996. Em linhas gerais, a legislação dificulta a responsabilização civil das empresas de tecnologia por conteúdos publicados por seus usuários. Não se trata de um caso único. Outro processo pôs o Twitter na mira da Justiça, e é provável que novas ações desse tipo apareçam.

MEMÓRIA - Homenagem no Bataclan: o Estado Islâmico matou 130 pessoas
MEMÓRIA - Homenagem no Bataclan: o Estado Islâmico matou 130 pessoas (Christophe Archambault/AFP)

A depender da decisão da Suprema Corte, prevista para junho, o caso Gonzalez versus Google mudaria para sempre a forma como as plataformas digitais lidam com a moderação de conteúdo. Em um sentido mais amplo, a eventual vitória da família Gonzalez transformaria o futuro da própria internet, a ágora em que quase tudo é permitido, inclusive postagens criminosas. Não será uma batalha fácil. Há pressão constante para que as redes sociais — Facebook, Instagram, YouTube, TikTok e Twitter, para citar as mais potentes — e as plataformas de busca, sendo o Google a mais importante delas, sejam rigorosas no controle dos conteúdos veiculados em suas páginas.

arte Google

As mídias digitais se tornaram nos últimos anos um campo livre para a publicação de conteúdos questionáveis e perigosos. Eles vão de teorias da conspiração relativamente inofensivas, como a afirmação de que a terra é plana, a tutoriais sobre como fabricar bombas caseiras. O negacionismo durante a pandemia, lembre-se, custou a vida de milhares de pessoas. Estudos apontam que os algoritmos promovem esse tipo de conteúdo porque costumam gerar engajamento maior, e o uso da inteligência artificial para personalizar a experiência dos usuários é eficaz em encontrar as informações buscadas, sejam elas positivas ou não.

Continua após a publicidade

O que está em jogo é um tema caro a diversos países, mais especialmente sensível nos Estados Unidos: a liberdade de expressão, defendida com louvor na Primeira Emenda da Constituição americana. Em carta publicada no blog do Google, Halimah DeLaine Prado, uma das mais ativas conselheiras da empresa, afirma que a Seção 230 da Lei das Comunicações garante uma internet livre para todos e que, em última instância, a mudanças das regras comprometeria a viabilidade financeira de quem lida com a publicação de conteúdo. “Reduzir a Seção 230 levaria empresas e sites a ser incapazes de operar e a mais ações judiciais que prejudicariam editores, criadores e pequenas empresas”, escreveu ela. “A onda crescente de litígios reduziria o fluxo de informações de alta qualidade na internet.”

NA MIRA - Sede da big tech nos EUA: a empresa afirma que não produz conteúdo
NA MIRA - Sede da big tech nos EUA: a empresa afirma que não produz conteúdo (Kyodo/AP/Image Plus)

As grandes empresas de tecnologia, especialmente buscadores como o Google, também argumentam que não produzem conteúdo, mas apenas oferecem sugestões aos usuários a partir do histórico de navegação e de preferências pessoais. “Há uma grande dificuldade de caracterização da responsabilidade”, afirma o advogado Marcos Poliszezuk, especializado no tema. “A principal atividade do Google é buscar conteúdo, mas ele não dá temas. Eu não abro o Google para ver o que me sugere. Primeiro, digito algo para procurar. Por isso, responsabilizar o veículo será complicado.”

A moderação oferece um caminho possível. Ainda assim, há lacunas de difícil solução. Sistemas automáticos detectam palavras-chave, mas não sabem quando há incitação ao crime ou mera menção ao tema. Bloquear conteúdo com a palavra “nazismo” nas redes sociais, por exemplo, retiraria de circulação textos históricos e críticos, junto com todo o resto. Lógica idêntica vale para o imenso rosário de assuntos que circulam na internet. Uma mesma publicação sobre o sistema de recrutamento do Estado Islâmico pode ser consumida de diferentes formas, a depender do perfil do usuário da rede social. Entender o processo brutal usado pelos terroristas é importante para evitar que jovens se sintam atraídos pelo grupo, mas também serve de porta de entrada para outros.

PRESSÃO - Sundar Pichai, CEO do Google: defesa da liberdade de expressão
PRESSÃO - Sundar Pichai, CEO do Google: defesa da liberdade de expressão (Mateusz Wlodarczyk/NurPhoto/Getty Images)

No Brasil, existe uma sólida legislação sobre o tema. Enquanto a Seção 230 da lei americana é considerada obsoleta por ativistas, o Marco Civil que regula a internet brasileira é mais atual, de 2014. Ele estipula que as plataformas só podem ser responsabilizadas por conteúdos de terceiros no caso de se recusarem a cumprir ordens judiciais de remoção. Apesar de recentes, as regras já passaram por providenciais revisões. A Lei Geral de Proteção de Dados Pessoais (LGPD), de 2018, atualizou as diretrizes de como os dados pessoais dos cidadãos podem ser coletados. Novas modificações deverão ser adicionadas, especialmente se o projeto de lei 2630, conhecido como PL das Fake News, for aprovado. De autoria do senador Alessandro Vieira (Cidadania-SE), o texto propõe medidas de combate à disseminação de conteúdo falso nas redes sociais antes da necessidade de ordens judiciais. O ministro Luís Roberto Barroso, do Supremo Tribunal Federal, já se manifestou a favor das mudanças. A discussão é complexa e certamente ganhará novos desdobramentos nas próximas semanas. Seja como for, ela mostra a necessidade de repensar a maneira como os conteúdos são promovidos ou impulsionados nas redes sociais. No Brasil e no mundo, a própria democracia depende disso.

Mais um gigante na berlinda

POLÊMICO - Elon Musk, o novo dono do Twitter: conteúdo sem moderação
POLÊMICO - Elon Musk, o novo dono do Twitter: conteúdo sem moderação (Jim Watson/AFP)

Embora esteja sendo julgado de forma separada, o caso Twitter versus Taamneh também busca responsabilizar a rede social pela morte de uma pessoa em um ataque terrorista. Em 2017, o cidadão jordaniano Nawras Alassaf perdeu a vida durante um atentado promovido pelo grupo extremista Estado Islâmico em Istambul. A principal diferença, no entanto, é que o caso não está centrado na liberdade de expressão e na revisão da chamada Seção 230. No processo contra o Twitter, a Justiça avaliará se as plataformas sociais podem ser consideradas incentivadoras do terrorismo por não oferecerem mecanismos eficazes para derrubar o conteúdo do grupo e por recomendar os vídeos da organização terrorista por meio de seus algoritmos. Isso representaria uma violação da Lei Antiterrorismo de 1990.

A dificuldade é apontar a relação direta entre os conteúdos veiculados na plataforma e o atentado em questão. A defesa do Twitter alega que, se tivesse recebido algum aviso sobre o perigo iminente, teria tomado providências. Como isso não ocorreu, não teria responsabilidade no caso. Há, ainda, um debate jurídico sobre a interpretação de expressões da Lei Antiterrorismo. Um trecho diz que alguém só pode ser acusado de conivente com o terror se forneceu “conscientemente assistência substancial”. A sentença deverá sair em junho, mas o Twitter está sob pressão. Desde que Elon Musk comprou a rede social, no ano passado, novas regras passaram a valer. Milhares de funcionários foram demitidos, incluindo times de moderação de conteúdo, e Musk defende um espaço de total liberdade. Com isso, conteúdos polêmicos têm se popularizado.

Continua após a publicidade

Publicado em VEJA de 8 de março de 2023, edição nº 2831

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Domine o fato. Confie na fonte.

10 grandes marcas em uma única assinatura digital

MELHOR
OFERTA

Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de R$ 2,00/semana*

ou
Impressa + Digital
Impressa + Digital

Receba Veja impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de R$ 39,90/mês

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$96, equivalente a R$2 por semana.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.