Julgamento no STF e a experiência da Europa com a regulação de plataformas digitais
O debate sobre a responsabilização das grandes empresas de tecnologia no Brasil tem como referência o modelo europeu de regulação das plataformas digitais. Um levantamento divulgado pelo NetLab, ligado à Escola de Comunicação da UFRJ, aponta que, desde a implementação da Lei de Serviços Digitais (DSA) na União Europeia, em agosto de 2023, não houve remoção excessiva de conteúdos após notificações feitas pelos usuários. Essa regulamentação inclui mecanismos para denúncias de conteúdos potencialmente ilegais e a possibilidade de remoção mediante ordens de autoridades públicas.
Impacto da regulação europeia na remoção de conteúdos
Dados coletados pelo NetLab, com base em relatórios de transparência de plataformas como Facebook, Instagram, X e TikTok, indicam que a maioria das ações de moderação na Europa são realizadas espontaneamente pelas próprias plataformas, sem necessidade de denúncias externas. Entre abril e dezembro de 2024, cerca de 21,32% das remoções pelo Facebook, 35,42% pelo X, e porcentagens similares em outras plataformas ocorreram após ações de denúncia. O restante foi resultado de ações internas das plataformas, que costumam remover conteúdos que violam suas próprias políticas.
De acordo com Rose Marie Santini, coordenadora do NetLab, a experiência na Europa demonstra que o volume de denúncias é menor do que a quantidade de conteúdos que as plataformas já removem espontaneamente. Ela destaca que aproximadamente 99% do conteúdo moderado na região é decidido internamente, sem a necessidade de denúncias externas, o que indica uma alta escala de moderação própria. Essa experiência sugere que a existência de procedimentos de denúncia não leva ao chamado “chilling effect” ou efeito inibidor sobre a liberdade de expressão.
Debate no STF e a responsabilidade das plataformas
No Brasil, o Supremo Tribunal Federal (STF) discute a constitucionalidade do artigo 19 do Marco Civil da Internet, que limita a responsabilidade das plataformas diante de conteúdos de terceiros, assumindo que somente após uma ordem judicial as empresas poderão ser responsabilizadas por conteúdos ilícitos. A argumentação das plataformas é que mudanças nesse modelo poderiam ameaçar a liberdade de expressão e prejudicar a capacidade de atuar diante da alta demanda por remoções.
No entanto, segundo o estudo do NetLab, a experiência europeia contradiz esse argumento, uma vez que a moderação de conteúdo realizada espontaneamente pelas plataformas é significativa e efetiva, sem levar à censura excessiva. Santini ressalta que, na Alemanha, uma legislação rigorosa exigia avaliação em 24 horas, mostrando que é possível atuar de forma eficiente e técnica na moderação de conteúdo.
Legislação alemã e controle de crimes online
A legislação alemã, a Lei de Apoio à Aplicação de Rede (NetzDG), busca assegurar que infrações como difamação, incitação ao ódio, terrorismo, pornografia infantil e discriminação religiosa sejam punidas também no ambiente digital. Em 2021, quase 9.500 remoções feitas pelo YouTube estavam alinhadas às diretrizes internas da plataforma, demonstrando que há already uma atuação significativa na remoção de conteúdos considerados crimes ou violações às políticas.
A importância de responsabilidade e transparência
Segundo Santini, a decisão de remover ou não conteúdos deve ser sempre das plataformas, que já atuam de forma responsável. Ela afirma que as plataformas não permanecem passivas às denúncias, mas avaliam sua relevância e legalidade antes de agir. A experiência europeia demonstra que é possível equilibrar responsabilidade, liberdade de expressão e transparência na atuação das plataformas digitais.








