Facebook: Desinformação e quem é afetado pela falta de acesso a dados

O estudo Aproveitadores da Pandemia sugere que o Facebook poderia resolver 70% do problema da desinformação médica excluindo apenas uma dúzia de contas de celebridades negacionistas e seus disseminadores. Mas a plataforma continua negando informação par análise independente sobre a dimensão de seu suposto combate à desinformação.

Falta de transparência de dados do Facebook e outras plataformas impede análise independente de seus efeitos.

Documentos internos vazados sugerem que o Facebook – que recentemente se renomeou Meta – está se saindo muito pior do que afirma em minimizar a desinformação da vacina contra covid-19 na plataforma de mídia social do Facebook.

A desinformação online sobre o vírus e as vacinas é uma grande preocupação. Em um estudo, os entrevistados que obtiveram algumas ou todas as notícias do Facebook foram significativamente mais propensos a resistir à vacina contra covid-19 do que aqueles que receberam as notícias de fontes da mídia convencional.

Como um pesquisador que estuda a mídia social e cívica, acredito que é extremamente importante entender como a desinformação se espalha online. Mas isso é mais fácil dizer do que fazer. A simples contagem de ocorrências de desinformação encontradas em uma plataforma de mídia social deixa duas questões-chave sem resposta: Qual a probabilidade de os usuários encontrarem desinformação e alguns usuários são especialmente propensos a serem afetados por desinformação? Essas questões são o problema do denominador e o problema da distribuição.

O estudo de desinformação sobre covid-19, “Algoritmo do Facebook: uma grande ameaça à saúde pública”, publicado pelo grupo de defesa de interesse público Avaaz em agosto de 2020, relatou que fontes que frequentemente compartilhavam desinformação sobre saúde – 82 sites e 42 páginas do Facebook – tinham um alcance total estimado de 3,8 bilhões de visualizações em um ano.

À primeira vista, esse é um número incrivelmente grande. Mas é importante lembrar que este é o numerador. Para entender o que significa 3,8 bilhões de visualizações em um ano, você também precisa calcular o denominador. O numerador é a parte de uma fração acima da linha, que é dividida pela parte da fração abaixo da linha, o denominador.

Obtendo alguma perspectiva

Um possível denominador são 2,9 bilhões de usuários ativos mensais do Facebook, caso em que, em média, cada usuário do Facebook foi exposto a pelo menos uma informação proveniente dessas fontes de desinformação sobre saúde. Mas são 3,8 bilhões de visualizações de conteúdo, não usuários distintos. Quantas informações o usuário médio do Facebook encontra em um ano? O Facebook não divulga essas informações.

O texto que mostra o problema de desinformação é igual ao sinal n sobre o ponto de interrogação
Sem saber o denominador, um numerador não diz muito. The Conversation US , CC BY-ND

Pesquisadores de mercado estimam que os usuários do Facebook passam de 19 minutos por dia a 38 minutos por dia na plataforma. Se 1,93 bilhão de usuários ativos diários do Facebook veem uma média de 10 postagens em suas sessões diárias – uma estimativa muito conservadora – o denominador para 3,8 bilhões de informações por ano é 7,044 trilhões (1,93 bilhão de usuários diários vezes 10 postagens diárias vezes 365 dias em um ano). Isso significa que aproximadamente 0,05% do conteúdo do Facebook são postagens dessas páginas suspeitas do Facebook.

O número de 3,8 bilhões de visualizações abrange todo o conteúdo publicado nessas páginas, incluindo conteúdo inócuo sobre saúde, de modo que a proporção de postagens do Facebook que são desinformação sobre saúde é menor que um vigésimo de um por cento.

É preocupante que haja desinformação suficiente no Facebook para que todos tenham encontrado pelo menos uma instância? Ou é reconfortante que 99,95% do que é compartilhado no Facebook não provém dos sites sobre os quais a Avaaz avisa? Nenhuma delas.

Distribuição de desinformação

Além de estimar um denominador, também é importante considerar a distribuição dessas informações. Todos no Facebook têm a mesma probabilidade de encontrar informações incorretas sobre saúde? Ou as pessoas que se identificam como antivacinas ou que buscam informações de “saúde alternativa” têm maior probabilidade de encontrar esse tipo de informação incorreta?

Outro estudo de mídia social com foco em conteúdo extremista no YouTube oferece um método para entender a distribuição de desinformação. Usando dados do navegador de 915 usuários da web, uma equipe da Liga Antidifamação recrutou uma grande amostra demograficamente diversa de usuários da web dos EUA e fez uma superamostragem de dois grupos: usuários intensivos ​​do YouTube e indivíduos que mostraram fortes preconceitos negativos raciais ou de gênero em um conjunto de perguntas feitas pelos investigadores. A superamostragem  está pesquisando um pequeno subconjunto de uma população, mais do que sua proporção da população, para registrar melhor os dados sobre o subconjunto.

Os pesquisadores descobriram que 9,2% dos participantes assistiram a pelo menos um vídeo de um canal extremista e 22,1% assistiram a pelo menos um vídeo de um canal alternativo, durante os meses cobertos pelo estudo. Uma parte importante do contexto a ser observada: Um pequeno grupo de pessoas foi responsável pela maioria das visualizações desses vídeos. E mais de 90% das visualizações de vídeos extremistas ou “alternativos” foram por pessoas que relataram um alto nível de ressentimento racial ou de gênero na pesquisa pré-estudo.

Enquanto cerca de 1 em cada 10 pessoas encontraram conteúdo extremista no YouTube e 2 em 10 encontraram conteúdo de provocadores de direita, a maioria das pessoas que encontraram esse tipo de conteúdo “rebateu” e foi para outro lugar. O grupo que encontrou conteúdo extremista e procurou mais dele eram pessoas que presumivelmente tinham um interesse: pessoas com fortes atitudes racistas e sexistas.

Os autores concluíram que “o consumo desse conteúdo potencialmente prejudicial está, em vez disso, concentrado entre americanos que já têm um alto índice de ressentimento racial” e que os algoritmos do YouTube podem reforçar esse padrão. Em outras palavras, apenas saber a fração de usuários que encontra conteúdo extremo não indica quantas pessoas o estão consumindo. Para isso, você também precisa conhecer a distribuição.

Superdisseminadores ou secadores de gelo?

Um estudo amplamente divulgado do grupo de defesa contra o discurso de ódio Center for Countering Digital Hate (Centor de Contagem de Ódio Digital) intitulado Pandemic Profiteers (Aproveitadores da Pandemia) mostrou que de 30 grupos antivacinas do Facebook examinados, 12 celebridades antivacinas foram responsáveis ​​por 70% do conteúdo circulado nesses grupos, e os três mais proeminentes foram responsáveis ​​por quase metade. Mas, novamente, é fundamental perguntar sobre os denominadores: quantos grupos antivacinas estão hospedados no Facebook? E que porcentagem de usuários do Facebook encontra o tipo de informação compartilhada nesses grupos?

Sem informações sobre denominadores e distribuição, o estudo revela algo interessante sobre esses 30 grupos antivacinas do Facebook, mas nada sobre desinformação médica no Facebook como um todo.

Uma mão segura um smartphone exibindo uma mensagem do Facebook sobre como limitar a desinformação do COVID-19
O Facebook afirma que está combatendo a desinformação da covid-19 em suas plataformas, mas sem saber a extensão do problema, não há como julgar os esforços da empresa. 

Esses tipos de estudos levantam a questão: “Se os pesquisadores podem encontrar esse conteúdo, por que as plataformas de mídia social não podem identificá-lo e removê-lo?” O estudo Pandemic Profiteers, que sugere que o Facebook poderia resolver 70% do problema da desinformação médica excluindo apenas uma dúzia de contas, defende explicitamente a deplataforma desses traficantes de desinformação. No entanto, descobri que 10 dos 12 influenciadores antivacinas apresentados no estudo já foram removidos pelo Facebook.

Considere Del Bigtree, um dos três propagadores mais proeminentes da desinformação vacinal no Facebook. O problema não é que Bigtree está recrutando novos seguidores antivacinas no Facebook; é que os usuários do Facebook seguem Bigtree em outros sites e trazem seu conteúdo para suas comunidades no Facebook. Não são 12 indivíduos e grupos postando informações incorretas sobre saúde online – são provavelmente milhares de usuários individuais do Facebook compartilhando informações incorretas encontradas em outros lugares da web, apresentando essas dezenas de pessoas. É muito mais difícil banir milhares de usuários do Facebook do que banir 12 celebridades antivacinas.

É por isso que as questões de denominador e distribuição são críticas para entender a desinformação online. O denominador e a distribuição permitem que os pesquisadores perguntem até que ponto os comportamentos comuns ou raros são on-line e quem se envolve nesses comportamentos. Se milhões de usuários se depararem com bits ocasionais de desinformação médica, os rótulos de advertência podem ser uma intervenção eficaz. Mas se a desinformação médica for consumida principalmente por um grupo menor que está ativamente procurando e compartilhando esse conteúdo, esses rótulos de advertência provavelmente serão inúteis.

Obtendo os dados certos

Tentar entender a desinformação contando-a, sem considerar denominadores ou distribuição, é o que acontece quando boas intenções colidem com ferramentas ruins. Nenhuma plataforma de mídia social permite que os pesquisadores calculem com precisão o quão proeminente é uma parte específica do conteúdo em sua plataforma.

O Facebook restringe a maioria dos pesquisadores à sua ferramenta Crowdtangle , que compartilha informações sobre o envolvimento do conteúdo, mas isso não é o mesmo que visualizações de conteúdo. O Twitter proíbe explicitamente que os pesquisadores calculem um denominador, seja o número de usuários do Twitter ou o número de tweets compartilhados em um dia. O YouTube torna tão difícil descobrir quantos vídeos estão hospedados em seu serviço que o Google pede rotineiramente aos candidatos para entrevistar o número de vídeos hospedados no YouTube para avaliar suas habilidades quantitativas.

Os líderes das plataformas de mídia social argumentaram que suas ferramentas, apesar de seus problemas, são boas para a sociedade, mas esse argumento seria mais convincente se os pesquisadores pudessem verificar essa afirmação de forma independente .

À medida que os impactos sociais das mídias sociais se tornam mais proeminentes, a pressão sobre as grandes plataformas de tecnologia para liberar mais dados sobre seus usuários e seu conteúdo tende a aumentar. Se essas empresas responderem aumentando a quantidade de informações que os pesquisadores podem acessar, observe com atenção: elas permitirão que os pesquisadores estudem o denominador e a distribuição do conteúdo online? E se não, eles têm medo do que os pesquisadores vão encontrar?

Ethan Zuckerman é professor associado de Políticas Públicas, Comunicação e Informação na Universidade de Massachusetts Amherst