PODCAST BUG DO MILÊNIO

Facebook: atualizando a Lei de Murphy

“Tudo que pode dar errado vai dar errado”. Quem não conhece a Lei de Murphy, né? Mas já ouviu falar da Lei de Finagle? Pois essa é a lei que melhor explica o que vem acontecendo com o Facebook desde o início de setembro. Ela diz que “tudo que puder dar errado vai dar errado, só que no pior momento possível.” Em um mês, o Facebook teve [1] seus documentos internos vazados para o Wall Street Journal, [2] testemunho crítico ao Congresso estadunidense da Frances Haugen, atual delatora e ex-funcionária do Facebook, e [3] “apagão” da plataforma e das suas irmãs, Instagram e WhatsApp, globalmente. Não tá fácil para quem trabalha por lá. Vem entender tudo no novo episódio do podcast Bug do Milênio, apresentado por Caio Machado e Letícia Duarte.

Transcrição

Houve uma época em que todo mundo corria para o Facebook para comentar as tretas do dia: haja TEXTÃO. Bem, nos dias atuais, parece que o Facebook virou a própria treta! Uma série de denúncias trazidas à tona por uma ex-funcionária colocou a plataforma no centro de debates mundo afora. 

Fica pior: ainda teve aquele apagão recente no Facebook, Instagram e WhatsApp. Parece que o Bug do Milênio chegou 21 anos atrasado. Não o nosso podcast, mas sim o apagão do Facebook, que aconteceu no dia 4 de outubro. Nesse período de cinco horas offline, o Facebook perdeu o equivalente a US$50 milhões.

A falha parece ter sido humana, não do sistema, E mostrou como a gente é dependente desse grande conglomerado - que inclui também o WhatsApp e Instagram. Se você também anda confuso para entender todas as tretas envolvendo a empresa, seus problemas acabaram.

No episódio de hoje, a gente vai explicar o que anda pegando no reino do Zuckerberg - e como isso afeta as nossas vidas - e as nossas timelines. O impacto é proporcional ao tamanho da empresa: o Facebook tem quase 3 bilhões de usuários - o que representa 60% das pessoas conectadas à internet no planeta. 

A treta principal é a acusação de que a companhia está deliberadamente colocando os lucros acima de princípios morais e da missão da organização. Documentos da própria empresa, trazidos à tona por uma ex-funcionária, revelam que a empresa vem repetidamente ignorando estudos internos mostrando que seus algoritmos estão promovendo discursos de ódio, desinformação, e causando danos à saúde mental de crianças e adolescentes. 

O assunto foi parar até no Congresso americano - e lançou dúvidas sobre o futuro da plataforma. Mas calma lá que tem muito caroço nesse angu. Respire fundo e vem com a gente pra não ter indigestão. 

LETICIA: Bom, antes de a gente entrar nas tretas, Caio, queria saber se você sentiu pânico ou alívio no dia em que o Facebook, WhatsApp e Instagram ficaram fora do ar!  

CAIO: Então, quando eu penso que o Facebook tá fora do ar eu não ligo taaaanto. Hoje em dia eu uso mais pra ver as memórias, posts de 10 anos atrás. Mas quando eu penso que o Instagram e o WhatsApp estão fora do ar, dá um certo desespero. Eu sou uma daquelas pessoas que é tão dependente do Zap que esqueceu que dava pra ligar e mandar SMS pros outros...

LETÍCIA: Coincidência é que a rede saiu do ar um dia depois que a ex-funcionária 

que até então vinha denunciando anonimamente o Facebook revelou sua identidade em uma entrevista à imprensa americana - e surgiram especulações se uma coisa tinha a ver com a outra. Eu confesso que depois de assistir a entrevista dela fiquei ainda mais indignada, e até fiquei pensando se a companhia deveria voltar ao ar. Eu realmente gostaria que fosse uma oportunidade para que o Facebook revisse suas práticas e pudesse corrigir tudo o que vem sendo apontado - porque os problemas são bastante graves.

Pois então, vamos recapitular. Essas denúncias recentes vieram à tona com um  furo do The Wall Street Journal. O jornal publicou uma contundente investigação chamada “The Facebook Files” (em português, os documentos do facebook). 

As reportagens tiveram como base mais de mil páginas coletadas pela ex-funcionária Frances Haugen, que era gerente de produto do Facebook e líder da equipe de “Integridade Cívica”, que lidava com questões relacionadas à democracia e desinformação.

Não é a primeira vez que o Facebook enfrenta acusações de causar danos à sociedade, só que o impacto desta vez foi muito mais expressivo porque os documentos internos compilados por ela confirmam que a empresa estava ciente do problema.

Segundo a ex-funcionária, não só o Facebook estava ciente dos potenciais danos à sociedade, como decidiu manter a linha em nome do lucro. Aliás, é interessante que o Mark Zuckerberg costumava repetir um mantra nos anos de fundação do Facebook: "empresa acima do país". Nos dias atuais ele não usa mais a expressão, mas ex-funcionários dizem que o sentimento interno ainda é esse porque as decisões seguem se pautando pelo lucro. O resumo da história é que os algoritmos valorizam engajamento e o que produz mais engajamento é aquele conteúdo que gera raiva, porque faz você reagir. Então cada vez mais você vai ver na sua timeline conteúdos extremados, o que gera um ciclo tóxico que valoriza os discursos de ódio e a desinformação.

Um ponto chave para entender o que está acontecendo foi uma mudança nos algoritmos que o Facebook fez em 2018. Na época, o Facebook anunciou uma mudança no algoritmo com o objetivo de fortalecer a interação entre usuários e melhorar o bem-estar na plataforma, promovendo mais postagens positivas. Então, ao invés de mostrar notícias, por exemplo, como antes, a prioridade passou a ser dada a conteúdo postado por amigos e familiares.

Para entender melhor como funciona o algoritmo de impulsionamento e de distribuição de conteúdo: imagine que há um sistema interno de pontos, usado para medir o sucesso de uma postagem. Curtir vale um ponto. Reação, compartilhar sem texto ou responder a um convite vale cinco pontos. Comentários significativos, mensagem, compartilhar ou RSVP (Répondez S'il Vous Plait ou "responde se vai, pô") valem 30 pontos. Ou seja, imagine uma postagem polêmica, em que as pessoas escolhem o botão de raiva (cada um vale 5 pontos), o sistema interno de pontos vai aumentando e mais usuários irão ver a postagem em seu feed.

Só que o tiro saiu pela culatra. A mudança no algoritmo teve efeito contrário. Em vez de produzir mais conexão entre as pessoas, o resultado foi mais raiva entre as pessoas. No meio da pandemia, por exemplo, em vez de receber notícias de fontes oficiais de saúde, os usuários passaram a ver muito mais coisas ao estilo do "tio do zap": e isso levou a uma explosão de boatos e conteúdos falsos sobre vacinas, por exemplo.

Os documentos internos mostram que funcionários da empresa alertaram sobre isso. Só que Zuckerberg resistiu a qualquer tipo de solução proposta, já que ele temia que isso levasse a uma queda de interações dentro da plataforma. Queda de interações, claro, significa queda de receita. 

Em resposta, um porta-voz do Facebook disse que “proteger a nossa comunidade é mais importante do que maximizar nossos lucros" [...] "Dizer que fechamos os olhos para o problema ignora investimentos feitos pela companhia, incluindo 40 mil pessoas trabalhando com segurança na companhia, com investimentos de $13 bilhões de dólares, desde 2016". 

Tudo indica que esses investimentos estão bem aquém do necessário. Além disso, as regras da plataforma não valem igual para todo mundo. Vamos olhar um exemplo prático: os documentos revelam que o Facebook tem uma espécie de elite secreta imune às regras da plataforma. Todo mundo sabe que o Facebook é cheio de normas e, caso você as desobedeça, você pode ser suspenso ou ter a conta deletada. Só que isso não vale para quem é considerado VIP e tem muitos seguidores, porque a empresa não quer tirar esses atores da plataforma…

O nome desse programa que blinda os vips é chamado “cross check” (verificação cruzada, em português) que protege os usuários mais populares da fiscalização normal da empresa. Ou seja, eles podem abusar de seus privilégios, postando documentos que incitam assédio ou violência e não acontecerá nada. 

O caso do Neymar é emblemático: depois de ser acusado de estupro, ele compartilhou sem consentimento uma série de “nudes” da mulher que o acusava. Pelas normas da empresa, esse tipo de violação é grave. A violação deveria resultar em remoção da conta, mas isso não aconteceu.

A postagem ficou no ar por 26 horas e alcançou 56 milhões de visualizações. Depois, só a postagem foi deletada - Neymar continuou com a sua conta, como se nada tivesse acontecido. Isso porque o Facebook não quer arriscar tirar um influencer de sua rede. Sem falar nos casos do Donald Trump, que, antes de ser banido do Facebook, fez declarações extremamente nocivas, como chamar os imigrantes de animais. Não sofreu nenhuma sanção por parte da plataforma. Trump só foi banido da rede após incitar a invasão do Capitólio americano, que resultou em mortos e feridos.

Uma outra acusação é que o Facebook saberia dos efeitos negativos do Instagram para o público adolescente. Em público, a empresa sempre minimizava os efeitos negativos da plataforma, inclusive em comentários ao Congresso estadunidense. À época, quando perguntado por congressistas sobre tais efeitos, Zuckerberg se restringiu a mencionar efeitos positivos, apesar de, na época, já saber de uma pesquisa interna sobre saúde mental na plataforma que trazia também dados problemáticos.

O Wall Street Journal trouxe como exemplo a jovem Anastasia Vlasova, que começou a ter transtornos alimentares em razão do Instagram. Ela afirmava que ficava muito angustiada entrando na plataforma e vendo corpos perfeitos, vidas perfeitas, que ela não tinha. Além disso, em pesquisa, 32% das garotas falaram que se sentem mal com seus corpos e o Instagram intensifica isso. Elas, inclusive, culpam o próprio Instagram por gerar ansiedade e depressão. E vale lembrar que 40% dos usuários do Instagram são menores de 22 anos, vitais para a empresa. Isso se traduz em uma receita de 100 bilhões de dólares por ano.

A repercussão das denúncias foi tão grande que o Facebook teve de recuar no lançamento do Instagram Kids, que pretendia focar no público com menos de 13 anos. O lançamento era uma tentativa de atrair um novo público para a rede porque o uso do Facebook entre adolescentes vem caindo há anos. Documentos internos preveem que o uso diário vai cair 45% até 2023. Quem ganha são as redes rivais, como o Tiktok.

Como nada é tão ruim que não possa piorar… Outra denúncia que veio à tona a partir dos documentos divulgados pela ex-funcionária é que o Facebook sabia que a plataforma vinha sendo usada por cartéis de drogas e tráfico de seres humanos, principalmente em países pobres. No Oriente Médio, por exemplo, funcionários do Facebook perceberam que traficantes vinham usando sites para atrair mulheres para trabalhos abusivos. Na Etiópia, grupos armados incitavam violência contra minorias étnicas. Além disso, houve alertas sobre venda de órgãos, pornografia e ações de governos contra dissidentes políticos.

O que o Facebook fez em relação a isso? Segundo um dos autores das reportagens do WSJ, Jeff Horwitz, o Facebook só decidiu agir após a Apple ameaçar retirar o Facebook da Apple Store, dos iPhones. Muita hipocrisia: não estamos removendo usuários para prevenir o pelo tráfico humano, mas para não perder os usuários dos iPhones.

Uma das dificuldades alegadas pela empresa para rastrear esse tipo de conteúdo por parte do Facebook era a falta de funcionários suficientes que conseguissem entender a língua local e identificar tais plataformas e conteúdos. Apesar do Facebook afirmar que está fazendo todo o possível, Brian Boland, o ex-vice presidente do Facebook, afirmou que eles tratam essas questões em regiões como África e Ásia como sendo “o custo de se fazer negócios”. Não há uma verdadeira preocupação em lidar com essas questões.

Isso também revela uma escolha. No seu depoimento ao Congresso americano, a ex-funcionária do Facebook revelou que 87% do investimento do Facebook para conter as notícias falsas é focado no conteúdo em inglês - só que apenas 9% dos usuários do Facebook falam Inglês. 

Aliás, todas essas denúncias contra o Facebook conseguiram o que parecia milagre: unificar gregos e troianos no Congresso. Em um momento raro, tanto democratas quanto republicanos estão unidos com a bandeira de que é preciso agir para regular o Facebook e outras mídias sociais. A grande dúvida, claro, é que tipo de regulação será essa. Uma das mudanças sugeridas seria diminuir o peso do algoritmo no alcance das postagens que vamos ver, com o retorno à ordem cronológica das postagens.

Francis Haugen também revelou que durante as eleições americanas de 2020, o Facebook testou um sistema de segurança para reduzir a desinformação. O algoritmo foi temporariamente ajustado para diminuir a escalada do conflito nas redes - e funcionou, porque não houve grandes casos de violência ou tentativas de manipulação de voto, como na eleição americana de 2016.

Só que Francis diz que depois das eleições eles desmontaram o setor de Integridade Cívica. O Facebook desativou as configurações e retomou o modus operandi de antes. Aí, meses depois, tivemos o episódio lamentável do Capitólio… A Francis disse que o desmonte da unidade soou para ela como uma "traição à democracia", permitindo que os extremistas se organizassem.

Em suas palavras: “o Facebook percebeu que se mudar o algoritmo para ser mais seguro, as pessoas vão passar menos tempo no site, vão clicar em menos anúncios, e eles vão ganhar menos dinheiro”. Ela inclusive falou que o Facebook deveria declarar “falência moral” e ser honesto com o público sobre seus fracassos. Chegou a comparar o Facebook a uma empresa de tabaco: por anos negaram que fumar fazia mal à saúde.

Ela implorou por regulação, afirmando que é necessário que as plataformas sejam responsáveis por algoritmos e conteúdos que elas promovem, coisa que não vem ocorrendo. Até então prevalecia a ideia de que as plataformas deveriam se autorregular, mas está cada vez mais claro que isso não está acontecendo. O governo americano promete agir.

Moral da história: essas tretas do Facebook vão incendiar discussões que já estavam pegando fogo. No Brasil, uma ala do governo briga para conseguir limitar a remoção de conteúdo: isso é, fazer com que mais pessoas tenham proteção como a do Neymar, para infringir as regras da rede de forma impune. Ao mesmo  tempo, esses dados vazados oferecem subsídios para a discussão sobre fake news no Congresso e Judiciário. Enquanto isso, uma galera migra para o Telegram, que é uma rede que não tem interesse nenhum em colaborar com a justiça e as leis brasileiras.

Resumo da ópera: jogaram gasolina na fogueira. No meio de tanta treta, quando a gente pensa em deletar o Facebook pode parecer até fácil, mas quem está disposto a abrir mão do WhatsApp? O presidente ainda está convocando todo mundo para migrar para o Telegram, em um esquema de terra sem lei.

A nossa dica para quem está procurando uma alternativa é baixar o Signal, que é um aplicativo criptografado de mensagens considerado super seguro, usado por vários jornalistas. Por enquanto, pelo menos, o app não está envolvido em nenhuma treta!