Especialistas alertam sobre as consequências da nova política da Meta
O recente encerramento do programa de checagem de fatos da Meta, anunciado pelo CEO Mark Zuckerberg, gerou preocupações generalizadas sobre o aumento da desinformação e a proliferação de discursos de ódio nas plataformas digitais.
Com essa decisão, o Facebook, Instagram e Threads passarão a adotar um modelo de moderação que prioriza apenas conteúdos considerados de “alta gravidade”, deixando à deriva uma ampla gama de publicações potencialmente danosas.
Confira: Bruno Gagliasso Defende Vini Jr. e Critica Tiago Leifert Após Comentário Polêmico
O programa de checagem da Meta: como funcionava?
O programa de checagem de fatos da Meta foi criado em 2016, como uma resposta à onda de desinformação que marcou as eleições presidenciais dos Estados Unidos. Desde então, mais de 80 organizações em mais de 60 idiomas participaram da iniciativa, incluindo agências renomadas como Reuters, France Presse e Associated Press. No Brasil, cinco parceiros locais contribuíram para o esforço de moderação.
A parceria com verificadores independentes seguia os princípios da International Fact-Checking Network (IFCN), uma aliança global que estabelece diretrizes para a checagem de fatos.
Os verificadores analisavam publicações que pudessem conter informações falsas ou enganosas, utilizando fontes primárias, dados públicos e análise detalhada de vídeos e imagens. Com base em suas conclusões, a Meta tomava medidas como reduzir o alcance das publicações ou adicionar rótulos de aviso.
Apesar do papel essencial desempenhado pelos verificadores, eles não tinham autoridade para remover conteúdos. Essa decisão permanecia com a própria Meta, que buscava equilibrar a liberdade de expressão e a responsabilidade de suas plataformas.
Mudanças na moderação e riscos associados
Com o fim do programa de checagem de fatos, a Meta planeja focar seus esforços em conteúdos de “alta gravidade”. Isso inclui apenas violações legais claras, como pornografia infantil, enquanto conteúdos de “menor gravidade” dependerão de relatórios de usuários e de correções inseridas pelos próprios internautas.
Especialistas alertam que essa abordagem deixa espaço para a permanência de desinformação sobre vacinas, COVID-19, eleições e ataques a instituições democráticas. Conteúdos discriminatórios, incluindo discursos racistas, misóginos e homotransfóbicos, também poderão ganhar mais visibilidade. Segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia, “conteúdos que antes eram barrados ou minimizados agora podem se tornar mais frequentes”.
A alteração também marca uma mudança estratégica na moderação da Meta, com a equipe de “confiança e segurança” sendo transferida da Califórnia para o Texas. Essa centralização do controle nos Estados Unidos pode impactar a capacidade de respostas locais, particularmente em regiões como a América Latina, onde as dinâmicas de desinformação são específicas e multifacetadas.
Impactos para os usuários e a sociedade
Helena Martins, professora da Universidade Federal do Ceará e integrante da Coalizão Direitos na Rede, destaca que “ao relaxar as políticas contra discurso de ódio, a Meta abre espaço para associações perigosas, como vincular orientação sexual e identidade de gênero a doenças mentais”. Ela acrescenta que essa permissividade pode reforçar preconceitos e aprofundar desigualdades sociais.
Com as mudanças, a moderação de conteúdo passará a depender mais das ações individuais dos usuários. Correções adicionadas por internautas, como as realizadas no X (antigo Twitter), serão a nova ferramenta para lidar com desinformação em conteúdos de “menor gravidade”. No entanto, a eficácia dessa abordagem é questionada, considerando a falta de controle sobre a qualidade e a veracidade das correções feitas por usuários comuns.
Confira a Nova Casa de Apostas do Brasil: Bora Jogar
Desafios e perspectivas futuras
As mudanças na moderação da Meta sinalizam um retrocesso em relação aos avanços alcançados na luta contra a desinformação nos últimos anos. A decisão de concentrar esforços apenas em conteúdos de alta gravidade ignora os impactos cumulativos de informações falsas e prejudiciais no debate público e na coesão social.
Para especialistas, a solução passa por regulamentações mais rigorosas e cooperação internacional para exigir maior transparência e responsabilidade das plataformas digitais. O caso também reforça a importância de iniciativas locais e independentes de verificação de fatos para combater os danos causados pela desinformação.
A Meta, por sua vez, enfrenta o desafio de equilibrar a liberdade de expressão com a necessidade de proteger os direitos dos usuários e preservar um ambiente digital seguro e inclusivo. As decisões tomadas agora terão repercussões profundas para o futuro do ambiente online e para a relação entre empresas de tecnologia e a sociedade.