Group 21 Copy 4 Created with Sketch.

O que pode publicar no Facebook: ¼ de um mamilo

Não é simples escolher o que deve ser excluído ou não. Testei na prática, em visita à área de revisão de conteúdo. Saiba qual será o futuro desse trabalho

Em VEJA desta semana, assino reportagem fruto de visita ao centro de revisores de conteúdo do Facebook em Barcelona. Esses profissionais são responsáveis por peneirar o que entra e o que não entra no site no Brasil, no restante da América Latina e em parte da Europa. Confira o texto no site ou na revista para um mergulho aprofundado nas questões envolvendo a sensível tarefa de monitorar e caçar grupos terroristas, pedófilos, traficantes, promotores de violência e ódio e etc. na internet. Agora, neste blog, compartilho mais informações dos bastidores de como funciona o fluxo de informações no Facebook.

Durante uma sessão empenhada em exibir o árduo (e é árduo!) trabalho que o Facebook tem tido para resolver os problemas que ele mesmo trouxe para si, no qual se detalhou como funciona o algoritmo do site e o exército de 15 mil checadores humanos espalhados pelo mundo, foi proposto um teste. Exibiram-se quinze exemplos de textos e fotos que foram realmente colocados por usuários na rede social.

Alguns nem chegaram a ser publicados, pois foram excluídos pela inteligência artificial ou pela inteligência humana da empresa. Outros, liberados para serem vistos por todos. Uma parcela menor ganhou um selo de alerta de “explícito”, usado principalmente quando se tratava de conteúdo violento ou sobre drogas, mas apresentado como forma de refletir sobre o assunto, ou de maneira artística, ou por meio de pinturas e fotos históricas, ou em reportagens de fontes renomadas, enfim, quando a origem do material era crível e respeitável.

No teste, errei feio em quatro alternativas – liberava, quando as regras indicavam o contrário; ou ocorria o inverso –, nem respondi em uma delas, chutei (e acertei) em mais duas. Na prática, só acertei mesmo se um post devia ser banido ou não em oito casos.

Não é fácil compreender os critérios da escolha. Nem para executivos graúdos do Facebook. “É claro que a ideologia de cada revisor por vezes pesa em sua decisão”, disse-me Paula Naval, gerente de políticas de segurança. “Mas por isso que as decisões podem ser questionadas por usuários, revistas pela equipe, há auditoria, e criamos formas técnicas para balizar as escolhas dos revisores”.

O Facebook já errou várias vezes. Por exemplo, na época em que proibiu a exibição do quadro A Origem do Mundo, de 1866, fixo no Museu de Orsay (Paris), no qual o pintor Gustave Courbet pinta de forma bem realista uma vagina. O algoritmo então simplesmente julgou que aquilo era um ser humano pelado – e seres humanos pelados são proibidos no Facebook e no Instagram. Logo depois de o público tirar sarro, e também se revoltar, com a exclusão da obra clássica, o Facebook colocou a arte de Courbet em um banco de dados para que ela não mais fosse interpretada como proibida – mas seres humanos pelados ainda são fora da lei da rede, destaca-se.

Noutra vez foi deletada uma histórica foto de uma menina fugindo de um ataque de napalm no Vietnã, em 1972, de autoria de Nick Ut. O protocolo se repetiu: o Facebook admitiu o erro e também colocou a imagem em um banco de dados de “liberados”. Os executivos da companhia acreditam que com o tempo o algoritmo ficará mais, digamos assim, inteligente em separar arte de pornografia, documentos históricos de imagens de crianças em situações de exploração.

O que será difícil controlar será o viés ideológico dos revisores humanos. “Claro que nossas crenças contam na hora da decisão. Até porque a maioria das regras entram em áreas bem cinzas”, resumiu uma revisora ouvida por mim de forma anônima. “Mas tento me ater a critérios técnicos. Se não fosse assim teria excluído um monte de posts que considero como de discurso de ódio, mas o Facebook não vê assim e acha que fomenta o ambiente de livre expressão”.

No teste ao qual fui submetido, vi exatamente como um revisor checa os posts polêmicos que chegam a eles. Numas situações, falta contexto para tomar uma decisão. Por exemplo, sem saber o histórico de um usuário, num momento foi difícil interpretar se uma charge criada pelo mesmo seria irregular – poderia ser interpretada como da categoria “discurso de ódio”; ou então era uma crítica social feita por um artista (o Facebook optou por não excluir tal desenho, diga-se).

Noutro momento, também era complicado saber se uma foto de duas pessoas – aparentemente do movimento LGBT, mas também era impossível ter certeza disso, visto que não se pode pesquisar mais sobre cada caso – seria considerada de cunho sexual (um aparentava estar chupando o mamilo de outro; mas o mamilo não aparecia na imagem). Nesse caso, o Facebook optou por deletar; mas em outro, numa cena sensual de um casal, sem os mostrar pelados, decidiu por não fazer o mesmo.

E o que pode e o que não pode no Facebook? “Nosso trabalho é muito subjetivo”, repetiu outro revisor. Para ficar um pouco menos subjetivo, o Facebook está construindo um conselho, com professores, intelectuais, ativistas, gente de fora da empresa e referências em suas áreas, que ajudará a gigante do Vale do Silício a criar melhores e mais claras leis para o bom convívio na plataforma. Só o tempo responderá se a tática vingará.

Também deste blog
O YouTube quer se limpar (de terraplanistas, supremacistas…)
O Facebook é uma ameaça à democracia?
A vida e a morte do iTunes

Mas já há, sim, alguns limites técnicos mais transparentes. Por exemplo, só se pode exibir até ¼ de um mamilo feminino no Facebook ou no Instagram. Exatamente ¼, nada mais. Mamilos à mostra provavelmente constituem um dos tópicos mais polêmicos. “Vocês se surpreenderiam com o tempo que minha equipe passa discutindo sobre mamilos”, confessou Paula Naval, do Facebook.

Para acompanhar este blog, siga no Twitter, em @FilipeVilicicno Facebook e no Instagram.

Comentários
Deixe um comentário

Olá,

* A Abril não detém qualquer responsabilidade sobre os comentários postados abaixo, sendo certo que tais comentários não representam a opinião da Abril. Referidos comentários são de integral e exclusiva responsabilidade dos usuários que escreveram os respectivos comentários.

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

  1. Luiz Pegorer

    Eu tenho um grupo de “cidadania – exerça a sua” e outro profissional. O primeiro tem o objetivo de incentivar o exercício de cidadania, solidariedade, idoneidade, dignidade e ética, por todos, a partir de notícias de fontes confiáveis e tradicionais. Por vezes eu compartilho apenas o link de matéria de Veja, O Estado de SP (ex.:com comentário das páginas de Fausto Macedo e Eliane Catanhêde) Folha de SP, EXAME, Isto É. Não raramente estas mensagens (só com o link) são censuradas com uma mensagem de que a mensagem “foi bloqueada por seu conteúdo desagradar muitos” e por vezes sou suspenso por muitos dias. Como estou em seguimento de tratamento de câncer agressivo e fico em casa em repouso, tento me dedicar. Coíbo principalmente por princípios, as posturas radicais e brigas ou personificação de ideias ou clichês (lulismo e bolsonarismo, por exemplo). Não vejo nenhuma razão para o que se nota ser uma perseguição.

    Curtir