Combate ao discurso de ódio nas redes sociais recua em 2021, segundo relatório da Comissão Europeia

Combate ao discurso de ódio nas redes sociais recua em 2021, segundo relatório da Comissão Europeia

O sexto relatório de avaliação do Código de Conduta da União Europeia sobre a remoção do discurso de ódio nas principais plataformas de redes sociais não trouxe boas notícias. Segundo a análise, os gigantes de tecnologia registraram médias inferiores na remoção de conteúdo impróprio em relação às de 2020 e 2019.

Os 11 provedores signatários eliminaram em média 62,5% do conteúdo denunciado por 35 grupos anti-discriminação nos países membros entre março e abril deste ano. O número é menor do que os 71% registrados no mesmo período em 2019 e 2020. E analisaram cerca de 81% do conteúdo sinalizado como discurso de ódio.

No total, foram feitas 4,5 mil denúncias às plataformas durante o período analisado este ano. As mais frequentes são relacionadas a orientação sexual e xenofobia. A classificação de discurso de ódio na UE inclui ainda conteúdo racista e que incite a violência ou o ódio contra grupos em razão de raça, cor da pele ou religião, entre outros.

A iniciativa de autorregulação nos países da UE começou em 2016, quando Facebook, Microsoft, Twitter e YouTube concordaram em remover em menos de 24 horas o discurso de ódio que violasse as diretrizes da comunidade. Posteriormente, outras plataformas como Instagram, Google+, Snapchat, Dailymotion, Jeuxvideo.com, TikTok e, recentemente o LinkedIn, também aderiram ao código de forma voluntária.

Um fator chave para a UE estabelecer o código foi a preocupação com a disseminação de conteúdo terrorista online, enquanto os legisladores buscavam maneiras de aplicar pressão rapidamente às plataformas para acelerar a remoção de conteúdo de pregação de ódio. Mas, agora, o bloco tem um regulamento para isso: em abril, a UE aprovou uma lei sobre remoção de conteúdo terrorista que definiu uma hora como o tempo padrão para as remoções serem realizadas.

Os legisladores da UE também propuseram uma ampla atualização das regulamentações digitais, que expandirá os requisitos de plataformas e serviços digitais para outras áreas. Uma delas é relacionada à desinformação, para a qual também há um código de adesão voluntária. De acordo com os legisladores europeus, a notificação para os usuários ainda é insuficiente e se constitui na principal fraqueza do código.

Liberdade de expressão e limites à atuação do Estado

No Brasil, o debate sobre a moderação de conteúdo nas redes sociais se dá no contexto do Marco Civil da Internet, que estabelece as diretrizes básicas de regulação, e é reconhecido por ter sido aprovado após um amplo debate público. No entanto, ainda há lacunas a serem preenchidas, pois o marco civil não aborda de forma relevante a regulação de conteúdo. No país, estes limites ainda estão muito sujeitos à governança de cada empresa, que estabelece e aplica suas próprias regras e procedimentos para regulação do discurso dos usuários em suas respectivas redes.

A internet mudou radicalmente a forma como nos comunicamos e, consequentemente, exige adequações em termos de regulação, um tema complexo, que envolve o estabelecimento dos limites da liberdade de expressão, assim como os da atuação do Estado.