Remoção de conteúdo na internet
“Como equilibrar a proteção dos usuários, a responsabilidade pelo ambiente digital seguro, sem restringir a fala, o fluxo de ideias, o debate?”
Plataformas de vídeo e redes sociais tornaram-se ferramentas poderosas para a criação de conteúdo e compartilhamento de informações. No entanto, a propagação de fake news e outros conteúdos que acabam violando a lei, ou os termos de uso das próprias plataformas, também se tornou uma preocupação.
Diante disso, uma questão vem sendo levantada por usuários, criadores de conteúdo e comunidade jurídica: a plataforma tem legitimidade para remover uma publicação, uma imagem ou vídeo? Ou isso configura uma forma de censura?
Com efeito, remover postagens ou comentários sempre gera preocupações sobre a liberdade de expressão (direito fundamental), no sentido de que a plataforma – uma entidade privada – poderia, unilateralmente, interferir no direito de comunicação do indivíduo.
Como equilibrar a proteção dos usuários e a responsabilidade pelo ambiente digital seguro, sem restringir a fala, o fluxo de ideias, o debate? Só numa leitura superficial já é possível perceber como a linha entre moderação e censura pode ser tênue.
Mas uma decisão recente do Superior Tribunal de Justiça (STJ) lançou luzes sobre o debate, esclarecendo o papel das plataformas digitais em situações em que o conteúdo publicado gera controvérsias ou pode impactar o bem-estar da população – ou até mesmo a saúde pública.
O caso julgado envolveu o YouTube, que removeu vídeos do médico que recomendava formas de tratamento contra a Covid-19 que não eram endossadas pela Organização Mundial de Saúde. Segundo o tribunal, a plataforma estava dentro de seus direitos ao agir, pois o conteúdo desrespeitava diretrizes internas que visam preservar a segurança e a confiança dos usuários.
A legislação atual – o Marco Civil da Internet – diz que, se receber uma ordem judicial para remover alguma publicação considerada ofensiva (ilícita), a empresa pode ser responsabilizada, se não agir. Isso não significaria, porém, que o provedor de internet só pode agir mediante determinação da Justiça.
De acordo com o STJ, as plataformas têm autonomia para remover conteúdos que violem seus próprios termos de uso, as “regras da casa” que os usuários aceitam ao criar uma conta. Por outro lado, é importante destacar que essas ações de moderação, se não forem bem conduzidas, podem gerar novas preocupações, como quando o usuário tem seu conteúdo limitado ou ocultado sem ser notificado formalmente.
A transparência nos procedimentos de moderação são essenciais para evitar que esse tipo de mecanismo seja interpretado como uma forma de censura. Logo, a remoção de conteúdo pode ser legítima, para garantir que o ambiente digital esteja seguro, de modo que a plataforma não seja conivente com a disseminação de conteúdos ilícitos — sem a necessidade de intervenção judicial em todos os casos.
A mensagem é clara: tanto as empresas quanto os usuários precisam assumir responsabilidade pelo que circula na internet. Em um cenário onde uma postagem tem o potencial de impactar inúmeras pessoas, as plataformas podem agir quando identificam ilegalidade ou indícios de ilicitude.
Esse espaço é para a livre circulação de ideias e a Tribuna respeita a pluralidade de opiniões. Os artigos para essa seção serão recebidos por e-mail ([email protected]) e devem ter, no máximo, 30 linhas (de 70 caracteres) com identificação do autor e telefone de contato. O envio da foto é facultativo e pode ser feito pelo mesmo endereço de e-mail.