A Mudança de Verificação de Fatos da Meta: Uma Declaração Política na Era da Pós-Verdade

No dia 7 de janeiro, as redes sociais foram inundadas com reações ao anúncio de Mark Zuckerberg sobre mudanças radicais na Meta, especialmente com o fim do Programa de Verificação de Fatos nos Estados Unidos. A notícia repercutiu globalmente de forma muito rápida, levantando preocupações sobre a disseminação de desinformação e informações enganosas e, em última instância, sobre a integridade de informações.

Este artigo examina as implicações da decisão da Meta para o Instagram, Facebook e Threads, concentrando-se nos efeitos imediatos nos EUA e no impacto mais amplo no Brasil, um país na vanguarda dos esforços para regulamentar as big techs e as plataformas online.

Além das consequências práticas, exploramos questões sociopolíticas mais amplas, como: O que essas mudanças indicam em uma era de polarização crescente? E como elas impactarão grupos vulneráveis?

Quais são exatamente as mudanças anunciadas por Zuckerberg?

O fim do Programa de Verificação de Fatos da Meta faz parte de uma mudança mais ampla na forma como as grandes plataformas lidam com—ou ignoram—a desordem informacional (um termo que engloba desinformação, informação enganosa, teorias da conspiração, propaganda e mais). A seguir, desmembramos as principais mudanças na Meta e suas implicações mais amplas.

O Fim do Programa de Verificação de Fatos

A Meta lançou seu Programa de Verificação de Fatos em 2016, após a eleição de Donald Trump, como parte de um esforço para reconstruir a confiança do público após o escândalo Facebook-Cambridge Analytica. O escândalo revelou que a Meta permitiu que a Cambridge Analytica acessasse os dados pessoais de mais de 87 milhões de usuários do Facebook sem seu consentimento. Esses dados foram usados para criar perfis psicológicos e apoiar a campanha de Trump por meio de anúncios políticos direcionados. O episódio também facilitou a interferência russa nas eleições, levantando preocupações de que a vitória de Trump possa ter ocorrido sob condições injustas.

Para reparar sua reputação, a Meta financiou mais de 90 organizações terceirizadas de verificação de fatos em todo o mundo ao longo dos oito anos seguintes, para verificar alegações políticas e reduzir a disseminação de informações falsas ou enganosas (Jingnan et al., 2025). A empresa também alocou aproximadamente 100 milhões de dólares para apoiar organizações certificadas de verificação de fatos.

Apesar desses investimentos, e para a surpresa de muitos de seus parceiros—que só souberam da decisão junto com o público em 7 de janeiro—, a Meta agora está encerrando o programa nos EUA. Embora a empresa tenha declarado que essa mudança não se aplicará a outros países “neste momento”, é amplamente esperado que a política eventualmente se estenda globalmente, trazendo repercussões significativas.

A consequência mais imediata do fim das parcerias de verificação de fatos, que já pode ser percebida, é a redução drástica no financiamento dessas iniciativas em todo o mundo. Pesquisas do The New York Times indicam que organizações como a PolitiFact, nos EUA, perderão 5% de sua receita anual devido a essa medida, enquanto outras estimam cortes de até 30%.

Em um sentido mais amplo, essa mudança sugere um enfraquecimento nos esforços para combater a desordem informacional. De acordo com o Global Risks Report 2025, a desinformação está entre as ameaças globais mais urgentes, ficando atrás apenas dos conflitos armados e desastres ambientais. Essa mudança pode agravar ainda mais a já crescente crise de informações falsas e enganosas online.

Por fim, a perda financeira não afeta apenas os verificadores de fatos—ela também levanta preocupações sobre a integridade mais ampla do jornalismo e da democracia. Natália Leal, CEO da organização brasileira de verificação de fatos Agência Lupa, declarou em entrevista à NPR: “O fim desse programa representa uma falta de transparência e uma falta de valorização do trabalho, do jornalismo no mundo e do trabalho dos verificadores de fatos”.

Portanto, a decisão da Meta deve ser analisada não apenas como uma mudança de política empresarial, mas dentro do contexto sociopolítico mais amplo—marcado pela nova administração dos EUA e pelos esforços internacionais para regulamentar as gigantes da tecnologia.

Substituindo a Verificação de Fatos por “Notas da Comunidade”

O segundo grande anúncio do vídeo de Mark Zuckerberg em janeiro foi que, em vez de trabalhar com verificadores de fatos profissionais terceirizados, a Meta adotará uma abordagem baseada em colaboração coletiva por meio de um sistema chamado Notas da Comunidade (Community Notes). Esse sistema, semelhante ao modelo implementado por Elon Musk no X (antigo Twitter), permite que usuários escrevam e votem positivamente ou negativamente nas notas que aparecem ao lado de postagens sinalizadas como falsas ou enganosas.

Mas a pergunta que fica é: as Notas da Comunidade realmente funcionam? No X, os colaboradores desse sistema permanecem anônimos e precisam ser aprovados antes de poderem submeter correções. Os critérios de elegibilidade para tornar-se um colaborador incluem: não ter violações recentes das regras do X, possuir um número de telefone verificado e uma conta ativa por pelo menos seis meses. No entanto, os critérios de elegibilidade não especificam um prazo estimado para aprovação.

Além disso, antes que uma correção seja tornada pública, ela precisa ser classificada como “útil” por outros colaboradores. Como explica a CBS News, “é aqui que as coisas ficam complicadas”. O “algoritmo baseado em pontes” do X exige “diversidade ideológica” nos votos antes de publicar uma nota. No entanto, se uma correção precisa for apoiada apenas por eleitores com tendências ideológicas semelhantes, ela pode nunca ser exibida publicamente—mesmo que a informação seja factualmente correta. Dando um passo atrás, também não está claro como exatamente essa diversidade ideológica é medida pelo algoritmo.

A eficácia do programa também é altamente questionável. Um relatório do Poynter descobriu que apenas cerca de 8,5% das aproximadamente 122.000 notas escritas desde o início do programa foram tornadas públicas. Além disso, em 2024, o Center for Countering Digital Hate (CCDH) conduziu uma análise de 283 postagens enganosas no X e descobriu que 209 delas—74%—não tinham Notas da Comunidade precisas visíveis para todos os usuários, deixando alegações falsas ou enganosas sobre as eleições sem correção. Esses achados sugerem que o sistema pode estar suprimindo informações precisas sob o pretexto de alcançar uma neutralidade ideológica.

Transferência dos Moderadores de Conteúdo da Califórnia para o Texas

Zuckerberg também anunciou que, como parte dos esforços para reduzir o que chamou de “excesso de censura”, as equipes de moderação de conteúdo da empresa, ligadas à Confiança e Segurança (Trust and Safety) da Meta seriam transferidas da Califórnia para o Texas. Diferentemente de contratados internacionais e de trabalhadores terceirizados responsáveis por revisar e excluir conteúdos prejudiciais, essas equipes desenvolvem políticas, tecnologias e recursos para prevenir danos aos usuários—orientando, na prática, a moderação de conteúdo em todo o mundo.

Zuckerberg justificou a mudança afirmando que isso “eliminaria preocupações sobre funcionários tendenciosos censurando conteúdos” e ajudaria a “construir confiança em locais onde há menos preocupações sobre o viés da equipe”. No entanto, as equipes de moderação de conteúdo desempenham um papel fundamental para garantir que os usuários não sejam expostos a discurso de ódio, pornografia ou conteúdos violentos. O enfraquecimento dessas políticas pode expor grupos vulneráveis a danos ainda maiores, como será explorado na próxima seção.

A declaração de Zuckerberg sobre a realocação das equipes de moderação de Confiança e Segurança para o Texas pode ser mais simbólica do que prática. De acordo com uma pesquisa conduzida pelo The Guardian (2025), a Meta vêm transferindo suas operações para o Texas há mais de uma década, tornando o anúncio menos uma mudança operacional significativa e mais uma declaração política. Especialistas sugerem que essa decisão serve a dois propósitos principais: primeiro, alinhar a Meta com a administração de Trump, que tem criticado repetidamente a moderação de conteúdo como uma forma de “censura”; e segundo, sinalizar oposição a ideologias progressistas ao transferir suas operações de um estado tradicionalmente democrata como a Califórnia para um reduto conservador.

Essa mudança também levanta uma questão mais ampla: se a Califórnia é considerada tendenciosa por causa de sua política progressista, não deveria o Texas, um estado profundamente conservador, ser sujeito à mesma crítica? No entanto, na era da pós-verdade, tais contradições muitas vezes passam despercebidas, reforçando a ideia de que o viés não é enquadrado como uma realidade objetiva, mas sim como uma arma política usada seletivamente.

A Situação no Brasil: Um Governo em Busca de Regulação

Negócios são políticos. Em seu vídeo de anúncio, Mark Zuckerberg afirmou que a Meta está “voltando às raízes, focando em reduzir erros, simplificar nossas políticas e restaurar a expressão livre”. Embora essa mensagem enfatize conceitos como “liberdade de expressão” e “redução da censura”—ambos aparentemente usados como conceitos objetivos—, é essencial desconstruir o que realmente significam e implicam no contexto político em que essa declaração foi feita.

A decisão foi anunciada imediatamente após a posse de Trump para seu novo mandato presidencial e apenas alguns dias depois da visita de Zuckerberg a Mar-a-Lago para se encontrar com o então presidente eleito. O momento desse anúncio alimentou especulações de que as mudanças da Meta estão politicamente alinhadas com a nova administração. Isso é particularmente marcante considerando o relacionamento anteriormente tenso entre Trump e Zuckerberg— no ano passado, Trump ameaçou Zuckerberg com “prisão perpétua”, acusando-o de conspirar contra ele nas eleições de 2020 (Isenstadt, 2024).

Brendan Nyhan, cientista político do Dartmouth College, descreveu essa dinâmica como “fidelidade performativa” em entrevista à NPR—empresários sinalizando lealdade à administração Trump, possivelmente como uma estratégia para evitar regulamentações (Jingnan et al., 2025).

No entanto, as mudanças de política da Meta não afetam apenas os EUA—elas têm implicações globais significativas, como no Brasil, um país que tem feito uma pressão ativa em favor de regulamentações mais rigorosas sobre as big techs.

Zuckerberg parecia plenamente consciente do impacto global de suas declarações. Em seu pronunciamento de janeiro, ele afirmou que a Meta trabalharia “com o presidente Trump para enfrentar governos ao redor do mundo que estão atacando empresas americanas e pressionando por mais censura” e que “países da América Latina têm tribunais secretos que podem ordenar que empresas removam conteúdos de forma silenciosa”.

No Brasil, muitos interpretaram isso como uma crítica direta ao governo brasileiro, especialmente considerando as recentes ações judiciais do país contra grandes plataformas de mídia social.

Por exemplo, no final de 2024, o X (antigo Twitter) foi temporariamente banido no Brasil depois que seu proprietário, Elon Musk, se recusou a cumprir exigências legais para nomear um representante local no país. O Supremo Tribunal Federal determinou que o X havia incentivado discursos extremistas e antidemocráticos e obstruído ordens judiciais. Musk, em resposta, enquadrou a proibição como um ataque à liberdade de expressão, alegando que “um pseudo-juiz não eleito no Brasil está destruindo a democracia por interesses políticos”.

Em resposta a esses esforços regulatórios, a sociedade civil brasileira tem reagido contra as mudanças da Meta, alertando que a flexibilização da moderação de conteúdo pode aumentar os danos às comunidades marginalizadas.
Uma das vozes mais fortes nesse debate é Nina da Hora, cientista da computação e fundadore do Instituto Da Hora.

Em entrevista para esta matéria, Nina afirmou:

“Eu entendo a complexidade da relação do STF na decisão de fechar o X, de proibir o X, ou algo similar que pode vir a acontecer com a Meta, e essas são formas estratégicas pensadas como uma forma de mostrar para CEOs e big techs que eles não estão falando com uma nação sem regras, sem leis, sem políticas, e principalmente sem organização enquanto sociedade”.

Os tribunais brasileiros já responderam ao anúncio da Meta. O governo concedeu à empresa um período de carência para explicar como pretende proteger os usuários antes de implementar suas novas políticas. Além disso, a Advocacia-Geral da União (AGU) entrou com uma queixa extrajudicial contra a Meta, citando preocupações de que as mudanças possam prejudicar desproporcionalmente populações vulneráveis. Jorge Messias, representante da AGU, exigiu publicamente que a Meta “explique categoricamente às autoridades brasileiras como protegerá crianças, adolescentes, mulheres e pequenos empreendedores que dependem da plataforma”.

A declaração destaca uma das principais preocupações em torno das mudanças anunciadas pela Meta: o risco de que elas desencadeiem e agravem o assédio e os ataques online contra aqueles que criticam essas alterações.

Nina da Hora, por exemplo, enfrentou uma forte reação negativa no Instagram após participar de um programa da Rede Globo, onde discutiu os perigos do enfraquecimento da moderação de conteúdo.

“Quando Mark Zuckerberg lançou o vídeo delineando a nova postura da Meta—removendo a moderação e a verificação, especialmente para terminologias cruciais na proteção de grupos já sujeitos à violência—as preocupações com os danos online só aumentaram. Essas mudanças automatizam completamente a moderação, confiando no comportamento dos usuários para a autorregulação. Se já existem grupos organizados visando indivíduos ou denunciando postagens em massa simplesmente por discordarem do conteúdo, isso é um enorme sinal de alerta”.

Após receber uma enxurrada de comentários hostis no Instagram, Nina desativou os comentários em suas postagens. No entanto, os ataques se espalharam para as redes sociais de organizações com as quais está afiliade—incluindo nós, da Data-Pop Alliance (DPA), e a Eureka, com quem colabora em um Clube de Leitura e Cinema focado na reimaginação do futuro da tecnologia.

Nina não é a única figura de destaque enfrentando retaliação por criticar a mudança de política da Meta. Erika Hilton, deputada federal no Brasil, tem sido uma das vozes mais ativas na condenação da decisão da empresa. Ela chegou a pedir que a ONU tomasse providências, argumentando que a abordagem cada vez mais permissiva da Meta em relação à moderação de conteúdo a torna cúmplice da disseminação de conteúdos prejudiciais que violam as leis brasileiras de proteção a grupos marginalizados.

Após sua atuação em defesa da regulamentação, Erika enfrentou uma intensa onda de ataques online, incluindo acusações de que ela estaria “com medo da liberdade de expressão”, assédio incentivando-a a deixar as redes sociais e comentários explicitamente violentos e transfóbicos que questionavam seu direito à visibilidade pública e à influência política.

Os ataques a Nina e Erika evidenciam uma tendência mais profunda na era da pós-verdade: a instrumentalização do ceticismo contra instituições e a responsabilização baseada em fatos. Lobo e Bolzan de Morais (2021) descrevem esse fenômeno como “a luta da ciência contra a pós-verdade”. Da mesma forma, Bjola e Papadakis (2020) argumentam que os ambientes de pós-verdade favorecem o apelo emocional e a retórica simbólica em detrimento dos fatos objetivos, criando um mundo onde a própria noção de verdade se torna maleável.

Um comentário que Nina recebeu no Instagram encapsula esse tipo de pensamento:

“Você pode nos esclarecer quem checa os checadores donos da verdade? Por óbvio, se alguém disser algo contra mim, mesmo sendo uma verdade, é direito meu negar até o fim. Ainda direi que a pessoa mentiu e merece prisão como nos tempos da ditadura. Então, me diga, você como defensora dos donos da verdade [verificadores de fatos], quem irá dizer que os checadores estão certos, haverá um juiz e provas?”

Esse tipo de raciocínio alimenta a desconfiança em qualquer sistema que busque combater a desordem informacional. Ele permite que atores desacreditem informações factuais sob o pretexto de questionar a autoridade—uma estratégia amplamente utilizada no negacionismo eleitoral, na desinformação sobre vacinas e na propaganda autoritária.

Considerações Finais

A resistência do Brasil às novas políticas da Meta reflete um debate global mais amplo sobre o papel das plataformas de mídia social na formação do discurso público. No entanto, para além das políticas das plataformas, essa discussão faz parte de uma transformação cultural muito maior—impulsionada por desigualdades sociais profundamente enraizadas, mudanças geopolíticas e tensões econômicas que alimentam a polarização e a desordem informacional em todo o mundo.

No cerne dessa crise está uma questão fundamental: como abordar as forças sociopolíticas e econômicas subjacentes que permitem que a desinformação e a polarização prosperem? Sugerimos que, antes de tudo, é necessário confrontar os sistemas mais amplos de poder, desigualdade e influência algorítmica que moldam tanto as realidades online quanto offline.

O anúncio de Zuckerberg marca um ponto de virada na forma como as grandes empresas de tecnologia lidam com a regulação de conteúdo. Se essa mudança resultará ou não em uma nova onda de desinformação e discurso de ódio ainda é incerto. Mas uma coisa é certa: a luta pela integridade da informação na era digital está longe de acabar, e não poderá ser vencida sem enfrentar as forças mais profundas que impulsionam a desordem informacional desde sua origem.

Referências

Berlinski, N., Doyle, M., Guess, A. M., Levy, G., Lyons, B., Montgomery, J. M., Nyhan, B., & Reifler, J. (2021). The effects of unsubstantiated claims of voter fraud on confidence in elections. Journal of Experimental Political Science, 10(1), 34–49. https://doi.org/10.1017/xps.2021.18

Bjola, C., & Papadakis, K. (2020). Digital propaganda, counterpublics and the disruption of the public sphere: the Finnish approach to building digital resilience. Cambridge Review of International Affairs, 33(5), 638–666. https://doi.org/10.1080/09557571.2019.1704221

Data-Pop Alliance. (2024, Dezembro 11). Book and movie club “(Re)Imagining Technologies: Paths to the Future”. https://datapopalliance.org/projects/title-book-and-movie-club-reimagining-technologies-paths-to-the-future/

Direitos digitais | Instituto da Hora. (n.d.). https://www.institutodahora.com/

Eureka. (n.d.). https://www.eureka.club/en

Funke, D. (2023, Agosto 29). Why Twitter’s Community Notes feature mostly fails to combat misinformation. Poynter. https://www.poynter.org/fact-checking/2023/why-twitters-community-notes-feature-mostly-fails-to-combat-misinformation/

G1. (2025, Janeiro 10). Governo cobra explicações da Meta sobre mudanças na política de moderação de plataformas no Brasil. https://g1.globo.com/politica/noticia/2025/01/10/governo-vai-cobrar-explicacoes-da-meta-sobre-mudanca-na-politica-de-moderacao-em-plataformas-diz-ministro.ghtml

Gaber, I., & Fisher, C. (2021). “Strategic lying”: the case of Brexit and the 2019 U.K. election. The International Journal of Press/Politics, 27(2), 460–477. https://doi.org/10.1177/1940161221994100

GloboNews. (n.d.). [Video post]. Facebook. https://www.facebook.com/GloboNews/videos/564943519738160/

Jingnan, H, Bond, S. & Allyn B. (2025, Janeiro 7). Meta says it will end fact-checking as Silicon Valley prepares for Trump. NPR. https://www.npr.org/2025/01/07/nx-s1-5251151/meta-fact-checking-mark-zuckerberg-trump

Kerr, D. (2025, Janeiro 13). Meta moderators were already in Texas before Zuckerberg announced move, say ex-workers. The Guardian. https://www.theguardian.com/technology/2025/jan/13/meta-moderators-texas-zuckerberg-trump

Lee, A. M. (2025, Janeiro 10). What is Community Notes, and how will it work on Facebook and Instagram? CBS News. https://www.cbsnews.com/news/what-is-community-notes-twitter-x-facebook-instagram/

Leingang, R. (2025, Janeiro 8). Meta’s fact checking partners brace for layoffs. The Guardian.https://www.theguardian.com/technology/2025/jan/08/meta-layoffs-factchecking-partners

Lobo, E. & Bolzan de Morais. J. L. (2021). New technologies, social media, and democracy. Opinión Jurídica, 20(41) . https://www.researchgate.net/publication/350028412_New_technologies_Social_Media_and_Democracy


Montellaro, Z. (2024, Agosto 28). Trump, Zuckerberg and the election book: A new controversy. Politico. https://www.politico.com/news/2024/08/28/trump-zuckerberg-election-book-00176639

Nguyễn, S., Moran, R. E., Nguyen, T., & Bui, L. (2023). “We Never Really Talked About politics”: Race and Ethnicity as Foundational Forces Structuring Information Disorder Within the Vietnamese Diaspora. Political Communication, 40(4), 415–439. https://doi.org/10.1080/10584609.2023.2201940

Officer, J. K. C. G. A., & Meta. (2025, Janeiro 7). More speech and fewer mistakes. Meta. https://about.fb.com/news/2025/01/meta-more-speech-fewer-mistakes/

Ortutay, B. (2024, Outubro 31). Report says crowd-sourced fact checks on X fail to address flood of US election misinformation | AP News. AP News. https://apnews.com/article/x-musk-twitter-misinformation-ccdh-0fa4fec0f703369b93be248461e8005d

Partido Socialismo e Liberdade (PSOL). (2024). Erika Hilton (PSOL) aciona ONU contra Meta e Mark Zuckerberg por ameaças à população LGBT. https://psol50.org.br/erika-hilton-psol-aciona-onu-contra-meta-e-mark-zuckerberg-por-ameacas-a-populacao-lgbt/

Reuters. (2024, Outubro 31). Musk’s X ineffective against surge of US election misinformation, report says. Reuters. https://www.reuters.com/world/us/musks-x-ineffective-against-surge-us-election-misinformation-report-says-2024-10-31/

Romo, V. (2025, Janeiro 10). Meta expands international fact-checking efforts amid misinformation concerns. NPR. https://www.npr.org/2025/01/10/nx-s1-5252738/meta-fact-checking-international

Santos, S. F. (2024, Agosto 31). Musk’s X suspended in Brazil after disinformation row. https://www.bbc.com/news/articles/c5y3rnl5qv3o

The New York Times. (2025, Janeiro 7). Meta Says It Will End Its Fact-Checking Program on Social Media Posts. The New York Times. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking 

United Nations. (n.d.). Information Integrity | United Nations. https://www.un.org/en/information-integrity 

Valenzuela, S., Muñiz, C., & Santos, M. (2022). Social media and belief in misinformation in Mexico: a case of maximal panic, minimal effects? The International Journal of Press/Politics, 29(3), 667–688. https://doi.org/10.1177/19401612221088988

Wikipedia contributors. (2025, Janeiro 11). Nina da Hora. Wikipedia. https://en.wikipedia.org/wiki/Nina_da_Hora

Wikipedia contributors. (2025, January 28). Facebook–Cambridge Analytica data scandal. Wikipedia. https://en.wikipedia.org/wiki/Facebook%E2%80%93Cambridge_Analytica_data_scandal 

World Economic Forum. (2025, Janeiro). Global risks report 2025: Conflict, environment, and disinformation top threats. [Press release]. https://www.weforum.org/press/2025/01/global-risks-report-2025-conflict-environment-and-disinformation-top-threats/

X.com. (n.d.). X (Formerly Twitter). https://x.com/YouTubeLiaison/status/1803072740175597643?lang=en

X. (n.d.). Signing up to contribute to Community Notes. Community Notes. https://communitynotes.x.com/guide/en/contributing/signing-up

Share
Keywords
Author(s)
Share
Recommendations
3 (4)
Da Distopia à Esperança: Destaques do Clube de Leitura e Cinema (Re)Imaginando Tecnologias
3 (4)
From Dystopia to Hope: Highlights from the (Re)Imagining Technologies Book and Movie Club
Header-News-letter-HZ (4)
Our Latest Quarterly Update (Q1 2025) is Out!
FeatureBlog
Three Decades of Advocacy: The Enduring Legacy of the Beijing Declaration and Platform for Action
[WEB] Feature Blog Post
RightsCon 2025: Data-Pop Alliance Participation in the Leading Digital Rights Summit at Taipei
[WEB] Feature Blog Post-
Employee Spotlight #6: Meet Our Design Team
Feature blog Post
A Mudança de Verificação de Fatos da Meta: Uma Declaração Política na Era da Pós-Verdade
Feature blog Post
Meta’s Fact-Checking Shift: A Political Statement in the Post-Truth Era
Feature blog Post (5)
Employee Spotlight #5: Nelson Papi Kolliesuah
Feature blog Post (4)
Data-Pop Alliance and UN Women Partner for Gender Data Training in Pakistan