Ícone do site Tribuna de Minas

Notas de comunidade: entenda o sistema que a Meta vai implementar

Meta foto Forbes

Foto: Forbes

PUBLICIDADE

Na terça-feira (7), Mark Zuckerberg, CEO da Meta, anunciou uma série de mudanças na regulação dos conteúdos de suas redes sociais, o Facebook, o Instagram e o Threads. Elas decretam o fim da moderação de conteúdo, com o encerramento do programa de checagem de fatos e o relaxamento nos filtros de inteligência artificial. No lugar, a empresa adotará o método de “Notas de comunidade”, no qual os próprios usuários serão responsáveis por denunciar conteúdos considerados nocivos.

A decisão de Zuckerberg agradou os apoiadores de Donald Trump, que inclusive afirmou que suas ameaças a Zuckerberg “provavelmente” influenciaram as mudanças do CEO. Em 2024, Trump ameaçou “mandar Zuckerberg para prisão perpétua” caso ele usasse as redes sociais para prejudicar sua reeleição.

PUBLICIDADE

O sistema de Notas de comunidade foi adotado inicialmente no X, de Elon Musk, que passou a ser conhecido como um ambiente digital que abraça o radicalismo, desinformação e outros conteúdos nocivos. A ferramenta de moderação faz com que os próprios usuários sejam responsáveis por denunciar conteúdo considerado nocivo nas redes, mas o caminho não é tão simples assim. Veja abaixo como o recurso funciona.

PUBLICIDADE

Como funciona?

As Notas de comunidade são uma forma coletiva de moderação e, segundo a Meta, uma maneira “menos parcial” de checagem de fatos, substituindo o trabalho de agências especializadas.

A ferramenta funciona por meio de usuários voluntários, que poderão sinalizar, por meio de mensagens curtas, se o conteúdo é considerado nocivo para a comunidade. Depois disso, outros usuários avaliam se a nota é considerada útil ou não, por meio de critérios como a clareza da informação e o uso das fontes. Se a maioria aprovar, o alerta deve aparecer embaixo das postagens

PUBLICIDADE

De acordo com a Meta, usuários poderão se inscrever para o processo a partir da próxima segunda-feira (13). Entretanto, não divulgou quais serão os critérios avaliados.

Quais são os riscos desse tipo de moderação?

Até aqui, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de contratos com mais de 80 veículos de comunicação para a realização desse trabalho de verificação. Agora, essa responsabilidade será dos usuários, que dependerão do bom senso da comunidade para considerar um conteúdo “perigoso” ou não.

PUBLICIDADE

É notável que haverá pessoas mal intencionadas e que, assim, a disseminação de notícias falsas nas redes sociais será muito mais simplificada e ampliada.

Segundo a Meta, as plataformas só influenciarão em postagens claramente nocivas, como discursos sobre terrorismo, por exemplo

Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar posts que falam sobre gênero, sexualidade e imigração, temas que podem, muitas vezes, vir acompanhados de um forte discurso de ódio. Para o CEO, essa é a maneira de voltarmos para as “raízes e origens” das redes sociais. Segundo ele, a checagem de fatos foi “longe demais” e “vem se confundindo com censura”.

PUBLICIDADE
Sair da versão mobile