Há uma máxima na indústria digital que diz algo assim: se você não pagou por um produto, quer dizer que você é o produto. Então, pergunte-se: Já pagou para acessar o Facebook? E o Twitter? E o YouTube? E para pesquisar no Google? Não, né? Então, você é o produto deles. Por isso, fica a pergunta: Por que há tanto fuzuê em torno de a consultoria Cambridge Analytica ter se apoiado em dados do Facebook para abastecer os marqueteiros da campanha presidencial de Donald Trump em 2016? Já volto a isso.
No Facebook, o raciocínio de “não tem almoço grátis na internet” quer dizer que, ao nada arcar pelo cadastro, aceita-se conceder dados pessoais para que a empresa possa usá-los praticamente para qual fim for. Sim, a companhia tem certos limites éticos descritos em seus termos de serviço – aquele documento com o qual a maioria (97%, de acordo com estimativa da Universidade Stanford) concorda sem nem ler uma linha. Mas, ao mesmo tempo, destaca nele: “Quando você publica conteúdo ou informações usando a opção ‘público’, você está permitindo que todos, incluindo pessoas de fora do Facebook, acessem e usem essas informações e nos concede permissão para usá-las”. E ainda é deixado claro que esses dados, em resumo, podem ser escrutinados pelo Facebook como ele bem entender.
É assim, guiando-se pelas informações compartilhadas por cada um em cada perfil, que a companhia consegue, por exemplo, ressaltar um anúncio de materiais esportivos para alguém que malha todo dia; ou um de um novo refrigerante para quem vai a lanchonetes com frequência; ou de um pacote de viagem para a Tailândia uns dias depois de a pessoa-alvo da publicidade ter realizado pesquisas sobre… a Tailândia. Desde que o Facebook é o Facebook é assim. Esse é o jogo. Assim caminham (ou correm?) as redes sociais.
Não só entender sua mente para manipulá-la para comprar, comprar e comprar faz o filho de Mark Zuckerberg com seu poderosíssimo algoritmo. Em 2014, pesquisadores ligados ao Facebook realizaram um estudo que comporia bem um cenário de uma ficção científica sobre uma distopia dominada por inteligências artificiais.
Sob a prerrogativa de tentar entender como as publicações de um usuário afetam o humor de seus amigos, os tais cientistas manipularam a linha do tempo de 690 mil perfis. Escolhidos aleatoriamente. No experimento, o algoritmo foi alterado para suprimir, para metade dos usuários – os afortunados –, postagens que expressassem emoções de cunho negativo e, pros outros 50%, esconder as publicações consideradas positivas. Com isso, esperava-se fazer com que uns ficassem mais tristes em suas vidas (os que só viam posts depressivos), enquanto outros pulassem de alegria. E foi o que ocorreu.
É um tanto óbvio sacar o quão antiético foi a manobra. Sim, o Facebook implantou sementinhas de infelicidade em seres humanos. Sem avisar. Psicólogos surtaram na época. Mas praticamente só eles. Sheryl Sandberg, braço direito de Zuckerberg, defendeu seu time assim: “Isso fez parte das pesquisas que as empresas realizam para testar diferentes produtos. O trabalho foi mal comunicado. E por esse erro de comunicação, desculpamo-nos”. Erro de comunicação? E o fato de terem manuseado as emoções alheias? Nada disseram sobre. E o assunto morreu aí.
Esse é só um exemplo. A máquina facebookiana já empurrou, com os malabarismos de seu algoritmo, americanos, brasileiros e tantos outros a votar em eleições – com aquele botão “Eu Voto”, lembra? Assim como agiu para interferir – aí, de forma benéfica, pode-se avaliar – durante desastres ambientais e sociais em diversos países. Lá no passado, Zuckerberg pensou até em criar o que chamava de dark profile de todos os seres humanos – um perfil para cada um, mesmo para aqueles que nunca tivessem entrado na rede social. Ainda bem que essa ideia naufragou antes de zarpar. Era coisa de quando ele tinha saído há pouco da adolescência.
No notícia da Cambridge Analytica, a coisa não é tão distinta assim. O Facebook forneceu dados a um pesquisador que jurou que os usaria para fins acadêmicos. Era mentira, pois ele os vendeu para a Analytica, que aí vendeu pra Trump, e aí Trump foi eleito. Agora, mudemos só uns nomes na lógica. O mesmo o Facebook faria com uma agência de publicidade, que poderia vender os dados para uma marca (digamos, uma que comercialize maionese, não Trump), que usaria isso para conquistar clientes.
Em 2015, o Facebook até ficou enfezado ao descobrir que o tal cientista de Cambridge tinha repassado o levantamento que realizou a outra empresa – o que seria irregular segundo regras internas. No entanto, o posicionamento só ocorreu por isso ter sido revelado pela imprensa.
No dia a dia, o Facebook despreza muitos outros casos similares; como os daqueles apps do gênero “Descubra qual personalidade vocês é”, que coletam informações como fazia a Cambridge, também com motivos obscuros. Mais que isso. A própria empresa de Zuckerberg utiliza os mesmos tipos de dados para o que bem entender; em muito por isso, por não querer ver seu recurso mais valioso circulando de graça por aí, também não gosta que consultorias e agências revendam informações (caberia ao Facebook fazer isso, e lucrar com isso).
Só que, é inegável, houve comoção com a forma como a Cambridge utilizou tais dados para impulsionar a vitória de Trump. Em especial, em meio aos veículos de mídia. Por quê? São alguns os motivos.
1º Pelo alcance que tomou o estudo de Cambridge, chegando à capacidade de realmente manipular a cabeça de americanos
2º Pelo intuito de tal manipulação: eleger um presidente
3º Por esse presidente ser Donald Trump, uma figura que gera asco em muitos, e que muitos não queriam lá num dos postos mais altos deste planeta (e me incluo dentre os muitos)
4º E o Facebook já está numa maré de escândalos, que envolvem de espiões russos usufruindo do site para manipular eleições, a exemplo da dos EUA, crimes sendo exibindo ao vivo nos vídeos do gênero live, fake news (as mentiras que insistem em chamar por aí de notícias) se disseminando por seu ambiente… a lista de pesadelos atuais é enorme.
Sendo assim, estamos todos cada vez mais atentos aos devaneios do Facebook e de seu líder máximo. E com medo. Muito medo. Um medo crescente.
A história da Cambridge Analytica pode até não se configurar como ilegal, para o Facebook – apesar de imoral. No fim, talvez ninguém seja multado ou preso. Ou pode até rolarem algumas punições, para não permanecer aquela sensação de nada está acontecendo.
Agora, o maior mérito do alvoroço da vez seria se ele realmente servisse para nos despertar para um novo mundo. Um no qual é necessário: ler termos de serviço assim como sabemos leis de trânsito e as regras básicas de convivência em sociedade; saber como se proteger nos meios virtuais; entender como o que se fala na internet pode virar público, e chegar a milhões, em meros segundos; etc. e tal.
Esse entendimento pode levar pessoas a sair do Facebook? Talvez. Ou levar Zuckerberg a remodelar seu negócio? Talvez. O que se sabe é que sem essa conscientização, podemos acabar realmente numa distopia controlada por algoritmos que saberão até o que iremos pensar amanhã, antes de pensarmos. Tenho medo desse futuro. E você?
**
E o que o Facebook poderia fazer para lidar com os problemas recentes que o acometeram? Seguem umas propostas.
Para diminuir a disseminação de fake news
Uma ideia seria proibir o compartilhamento de links na rede social. Assim, ficaria mais clara a sensação de responsabilidade individual sobre o que se posta – mesmo que por meio de um “copia e cola”.
Para garantir a privacidade de cada facebookiano
Tornar privados, por padrão, todos os perfis de usuários. Logo, se optaria por quando se quisesse tornar algo público, não o contrário.
Para impedir o compartilhamento de absurdos, como crimes, em lives
Não permitir mais vídeos ao vivo. Simples.
Para impedir o uso indevido de informações por terceiros, como a Cambridge Analytica
Jamais conceder os dados pessoais a outras empresas. No caso de anúncios, a sugestão seria que cada publicidade fosse previamente avaliada, aprovada, e ainda a sede da marca responsável seria visitada por um funcionário, antes de permitir a publicação.
E são só algumas sugestões. Umas que certamente transformariam o Facebook num lugar mais para papos entre amigos, e menos para virais, memes e fake news. Por que não se faz isso? Por duas razões principais.
1ª As medidas tornariam a empreitada, falemos assim, mais ética. Na contramão, minguaria os cofres da empresa, faria despencar o valor na bolsa da mesma e obrigaria o corte de funcionários. Tornaria o Facebook algo mais agradável e menos maléfico (e mais benéfico) à sociedade. O enorme “porém”, repito: diminuiriam seus lucros.
2ª Ninguém está nas ruas protestando contra a rede social. Tirando a mídia, que por muito tempo também caiu (aqui, generalizando; há exceções, sempre) na lábia do Facebook, não há movimentos imensos de manifestantes clamando por mudanças extremas na rede social e pela punição de seus diretores.
Ao que tudo indica, os humanos do século XXI têm aceitado expor suas vidas, acabar com a própria privacidade, em troca de poder continuar a falar umas besteiras e jogar uns games gratuitos no Facebook. O custo disso, todavia, será bem maior do que o esperado.
Para acompanhar este blog, siga-me no Twitter, em @FilipeVilicic, no Facebook e no Instagram.
Também deste blog
O caso Marielle e um manifesto sobre os comentadores da internet
Mais uma falta de lógica (ou noção) do país chamado Facebook