Num livro publicado no ano passado sobre o seu primeiro mandato, o presidente eleito dos EUA, Donald Trump, ameaçou prender Mark Zuckerberg, sugerindo que o CEO da Meta ajudou a fraudar as eleições de 2020.
A teoria da conspiração circulou amplamente nas redes sociais, incluindo nas próprias plataformas da Meta, Facebook e Instagram. Eventualmente foi desmascarado por um dos grupos terceirizados que a Meta pagou para verificar o conteúdo popular em seus sites.
Na terça-feira, Zuckerberg anunciou o fim abrupto do programa de verificação de fatos da Meta nos EUA, atraindo elogios de Trump.
A ação de Zuckerberg parecia ter como objetivo, em parte, proteger o Meta de um esforço crescente de legisladores e ativistas republicanos para paralisar a indústria de verificação de fatos que surgiu junto com as mídias sociais.
Também está a causar um acerto de contas entre os próprios verificadores de factos sobre o valor e a eficácia do seu trabalho no meio da onda diária de falsidades.
“A verificação de fatos está sob ataque. Ela foi transformada em palavrão por alguns setores de nossa política nos EUA e em todo o mundo”, disse Katie Sanders, editora-chefe do PolitiFact, que até esta semana era um dos parceiros do programa de verificação de fatos da Meta.
“Ainda estamos nos estágios iniciais de desvendar as implicações. Mas há ansiedade no ar, com certeza.”
‘Vamos apenas rotular isso’
A verificação de fatos tem sido um recurso rotineiro na mídia noticiosa desde pelo menos a década de 1930.
Mas à medida que as plataformas de redes sociais cresceram em popularidade na década de 2000, surgiram uma série de publicações – como FactCheck.org e PolitiFact – dedicadas quase inteiramente a verificar as declarações de figuras públicas.
A eleição de Donald Trump em 2016, no entanto, revelou-se um momento decisivo para esta indústria emergente.
A propensão do candidato para proferir falsidades, juntamente com as preocupações sobre a utilização das redes sociais por intervenientes estrangeiros para manipular a opinião pública, geraram intensa pressão sobre empresas como o Facebook para que tomassem medidas.
O Facebook firmou acordos de parceria com vários meios de verificação de fatos para revisar o conteúdo sinalizado como potencialmente enganoso. O programa acabou por se expandir para cerca de 130 outros países, incluindo o Canadá.
“As pessoas realmente pensaram: vamos apenas rotular. Deveríamos apenas dizer às pessoas o que é falso e o que não é, e isso resolverá o problema”, disse Katie Harbath, ex-diretora de políticas públicas do Facebook.
“Mas imediatamente surgiram desafios com o programa de verificação de fatos. Eles não são capazes de fazer isso rapidamente e não são necessariamente capazes de fazê-lo em grande escala.”
Essas deficiências foram muitas vezes fonte de frustração para os liberais, que sentiam que demasiada desinformação estava a passar despercebida. Muitos conservadores, por outro lado, acreditavam que o seu conteúdo estava a ser injustamente alvo de verificação.
Reação liderada pelos republicanos
Nos últimos anos, a suspeita de programas de verificação de factos transformou-se em hostilidade total.
Os republicanos do Congresso e os ativistas conservadores atacaram a Parceria para a Integridade Eleitoral, uma coalizão de verificação de fatos de acadêmicos e outros especialistas, com tantas demandas legais que efetivamente parou de operar em junho passado.
O escolhido de Trump para liderar a Comissão Federal de Comunicações, Brendan Carr, passou várias semanas atacando os esforços de verificação de factos das grandes empresas tecnológicas. Ele os acusou de apoiar um “cartel de censura” e ameaçou tomar medidas regulatórias.
Carr destacou a NewsGuard, uma empresa que avalia a credibilidade dos sites de notícias e deu notas baixas aos meios de comunicação pró-Trump que divulgaram alegações falsas sobre as eleições de 2020, como o NewsMax. (Outros meios de comunicação conservadores, incluindo a Fox News e o New York Post, são classificados como confiáveis.)
“Todos são prejudicados pela desinformação… quer a desinformação prejudique a esquerda ou a direita, porque significa que as pessoas estão operando com uma compreensão menos completa dos fatos subjacentes do que deveriam”, disse o co-CEO da NewsGuard, Gordon Crovitz, um Republicano de longa data e ex-editor do Wall Street Journal.
“Acho que esta é uma questão bipartidária. No momento, assumiu um tom partidário nos Estados Unidos, mas acho que é passageiro. Informações confiáveis são importantes para todos os lados nas democracias.”
Zuckerberg é verificado
A decisão da Meta de encerrar o programa de verificação de fatos fez parte de um conjunto mais amplo de mudanças destinadas a afrouxar as restrições de conteúdo em nome da “liberdade de expressão”.
Estes incluíam novas políticas que permitem aos usuários chamar pessoas LGBTQ de doentes mentais ou anormais.
No vídeo de cinco minutos anunciando as mudanças, Zuckerberg disse que os verificadores de fatos do Meta eram “muito tendenciosos politicamente”.
Encerrar o programa, acrescentou, “reduzirá drasticamente a quantidade de censura em nossas plataformas”.
Seu raciocínio, não surpreendentemente, foi examinado por verificadores de fatos.
Eles ressaltaram que os parceiros do programa nunca removeram conteúdo dos sites da Meta. O trabalho deles apareceu apenas como um aviso anexado ao conteúdo que passou por uma revisão minuciosa.
“Temos um processo realmente rigoroso para testar as afirmações que pretendemos verificar. Temos um plano em andamento sobre como aprenderemos sobre este tópico e obteremos a resposta definitiva”, disse Sanders. “Requer tempo – e experiência, francamente.”
Em última análise, a decisão de remover o conteúdo ou fechar uma página foi da Meta, algo que a empresa raramente fazia, de acordo com Sanders.
Muito do que os verificadores de fatos sinalizavam diariamente não era discurso político em si, mas sim golpes e outras formas de clickbait, disse Alexios Mantzarlis, diretor da Iniciativa de Segurança, Confiança e Proteção da Cornell Tech, um centro de pesquisa em Nova York. Iorque.
“Esse era o tipo de coisa que este programa pretendia resolver. Não se destinava a resolver a mentira política, que é tão antiga quanto a humanidade”, disse Mantzarlis, ex-diretor da Rede Internacional de Verificação de Fatos, que ajudou o Facebook criou seu programa de verificação de fatos.
O trabalho do PolitiFact para Meta incluiu a correção de informações sobre tiroteios em massa, desastres naturais e remédios para a saúde ineficazes ou perigosos.
“Eu apenas esperaria que o ambiente se tornasse mais lixo quando essas afirmações pudessem proliferar incontestadas”, disse Sanders.
Zuckerberg disse que o programa de verificação de fatos será substituído por um processo semelhante ao Community Notes, a abordagem de crowdsourcing usada no X.
Embora a verificação de fatos por meio de crowdsourcing possa ser eficaz com os incentivos certos, o recurso Community Notes no X é principalmente um fórum para mais disputas partidárias, disse Mantzarlis.
“A ironia particular de Zuckerberg jogar os verificadores de fatos debaixo do ônibus como ‘partidários’ é que sua alternativa proposta não parece um refúgio para o bipartidarismo e a reunião de Kumbaya”, disse ele.
Com alta oferta vem alta demanda
No momento, a Meta está apenas encerrando seu programa de verificação de fatos nos EUA. Uma divisão da Agence France-Presse fornece verificação de fatos para o Canadá e continua a operar.
“É um duro golpe para a comunidade de verificação de fatos e para o jornalismo. Estamos avaliando a situação”, disse a AFP em comunicado após o anúncio de Zuckerberg.
A Meta foi uma importante financiadora de operações de verificação de factos nos EUA e a sua retirada irá provavelmente desencadear uma reordenação na indústria, disse Sanders.
“Mas não é algo que possa ser morto. Veio para ficar, independentemente de as pessoas no poder gostarem ou não”, disse ela.
Na verdade, dada a oferta infinita de desinformação, a procura de verificação de factos nunca foi tão grande por parte dos anunciantes, disse Crovitz.
“Há uma enorme quantidade de desinformação, seja da Rússia, da China, do Irão ou de modelos generativos de IA alucinando”, disse ele.
“E há um número crescente de entidades que estão preocupadas com a desinformação e querem ter a certeza de que não estão a contribuir para isso”.