Vamos imaginar que uma professora que descobre uma comunidade virtual intitulada “Eu odeio a Aliandra”, repleta de conteúdo difamatório contra ela (isso, de fato, aconteceu no Orkut).
Ou um homem negro que precisa esperar mais de seis anos para conseguir remover um perfil falso que o identificava como “bandido bom é bandido morto” (isso, de fato, aconteceu).
Ou ainda, o próprio Ministro Alexandre de Moraes, que mesmo ocupando uma posição das mais altas no Judiciário brasileiro, enfrenta dificuldades para remover dezenas de perfis falsos que se passam por ele nas redes sociais…
Veja, estes não são casos hipotéticos... são reais, eu e você sabemos como é a dificuldade de um conteúdo potencialmente falso ou ofensivo nas redes sociais.
Isto é, são histórias reais que ilustram os desafios enfrentados por cidadãos brasileiros no ambiente digital e que agora chegam ao Supremo Tribunal Federal (STF) através do julgamento do artigo 19 do Marco Civil da Internet.
No fundo, há quem diga que o que está em jogo é a liberdade de expressão, mas essa discussão é muito superficial. Estamos discutindo além disso, o principal conteúdo que é: “as empresas facebook/instagram podem ser responsabilizadas quando? Apenas quando tiver uma ordem judicial determinando para remover algo?”
Veja, isso é o que exatamente está em jogo na análise desse dispositivo que vamos explicar nesse artigo jurídico:
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. § 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material. § 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal. § 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais. § 4º O juiz, inclusive no procedimento previsto no § 3º , poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
Trocando em miúdos: o artigo fala o seguinte: “olha, somente haverá a responsabilização das redes sociais se, houver uma ordem judicial, determinando que se retire um conteúdo” e eles não retirarem.
É como se, não houvesse uma necessidade de moderação do conteúdo…
Ok, professor, mas qual seria o problema do artigo 19? Aos defensores da inconstitucionalidade…
Para os defensores da inconstitucionalidade, o primeiro e mais grave problema reside na própria natureza do dispositivo de retirar a responsabilidade das redes sociais e dos buscadores, por exemplo…
Oriente-se: ao estabelecer que "o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências", a lei criou um sistema que privilegia a inércia das plataformas.
Para entender melhor, imaginemos uma situação concreta: uma pessoa descobre que existe um perfil falso usando sua foto e seu nome para difamar sua reputação… (Min. Alexandre de Morais)… Isso porque, pelo artigo 19, ela só será responsabilizada se descumprir mesmo que ela notifique a plataforma e comprove sua identidade, a empresa pode simplesmente ignorar o pedido sem qualquer consequência jurídica imediata uma ordem judicial.
Perceba que este modelo acaba gerando três problemas existenciais aos defensores da inconstitucionalidade:
Primeiro, cria uma “blindagem excessiva” das plataformas, como bem pontuou o professor Anderson Schreiber.
Nessa linha, as empresas podem adotar uma postura passiva diante de conteúdos manifestamente ilícitos, aguardando a ordem judicial para agir, sem risco de responsabilização.
Segundo, impõe à vítima o ônus da judicialização.
Como destacou o Ministro Alexandre de Moraes durante o julgamento, “as plataformas dificultam e quase ignoram quando você quer retirar um perfil falso”.
Perceba, a pessoa lesada precisa contratar advogado, arcar com custas processuais e aguardar o tempo do processo judicial para ter seu direito protegido. No fundo, o ônus é todo da pessoa lesada…
Terceiro, há quem diga que o dispositivo ignora a realidade da internet contemporânea.
Direitos fundamentais x proteção das plataformas
Como argumenta a Advocacia-Geral da União, “não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo”.
No fundo, é como se os defensores da inconstitucionalidade dissessem que as plataformas têm capacidade técnica e recursos para implementar sistemas mais efetivos de moderação.
Em outras palavras, o problema do art. 19 é que ele criou um sistema que prioriza a proteção das plataformas em detrimento dos direitos fundamentais dos usuários.
Veja que ao condicionar qualquer responsabilização à prévia ordem judicial, o dispositivo acabou legitimando uma postura omissa das empresas diante de conteúdos manifestamente ilícitos, transformando a judicialização em regra e não exceção.
Aos que entendem pela constitucionalidade do artigo 19
De outro lado, os defensores do atual modelo argumentam que o artigo 19 representa uma salvaguarda fundamental contra a censura privada.
Retirar o dispositivo seria atentar contra a liberdade de expressão.
O Google, por exemplo, apresentou dados interessantes: em 2023, o YouTube removeu voluntariamente mais de 1,6 milhão de vídeos no Brasil, demonstrando que o sistema atual não impede a moderação efetiva de conteúdo.
Ademais, argumentam que exigir ordem judicial prévia para responsabilização das plataformas garante segurança jurídica e evita remoções arbitrárias de conteúdo.
Se retirássemos o dispositivo, estaria sendo passado um controle para as redes sociais que não deveriam ter, conforme argumenta essa corrente…
Por qual relevância decidir a constitucionalidade é importante? O que mais está em jogo?
1)Segurança Jurídica: como exemplifica o caso do Mercado Livre perante o STJ, envolvendo a comercialização de produtos sem certificação, a definição clara dos parâmetros de responsabilização impacta diretamente o ambiente de negócios digital:
STF retoma julgamento do artigo 19 do Marco Civil da Internet
Imagine que passar a responsabilidade às plataformas gerará que haja uma moderação de tudo que se passa nos seus sites.
2)Soberania Nacional: a questão perpassa debates sobre a jurisdição brasileira no ambiente digital e sua efetividade frente a empresas transnacionais.
Nesse caso, saberemos também até onde é possível que um juiz brasileiro possa determinar a remoção de um conteúdo de maneira mundial, por exemplo?
Vale frisar que, a plataforma de vídeos Youtube, provedor de aplicação de internet de propriedade da Google, pode remover, suspender ou tornar indisponíveis conteúdos de usuário que viole seus termos de uso aplicáveis, especialmente no contexto da pandemia da Covid19, como já decidiu o STJ.
Isto é, essa moderação de conteúdo encontra amparo no ordenamento jurídico, não representando violação à liberdade de expressão nem censura.
Assim, os termos de uso dos provedores de aplicação, que autorizam a moderação de conteúdo, devem estar subordinados à Constituição, às leis e a toda regulamentação aplicável direta ou indiretamente ao ecossistema da internet, sob pena de responsabilização da plataforma:
A moderação de conteúdo refere-se à faculdade reconhecida de as plataformas digitais estabelecerem normas para o uso do espaço que disponibilizam a terceiros, que podem incluir a capacidade de remover, suspender ou tornar indisponíveis conteúdos ou contas de usuários que violem essas normas.
O art. 19 da Lei nº 12.965/2014 (“Marco Civil da Internet”) não impede nem proíbe que o próprio provedor retire de sua plataforma o conteúdo que violar a lei ou os seus termos de uso. Essa retirada pode ser reconhecida como uma atividade lícita de compliance interno da empresa, que estará sujeita à responsabilização por eventual retirada indevida que venha a causar prejuízo injustificado ao usuário.
Vale ressaltar que, no caso concreto, o STJ entendeu que não houve shadowbanning.
Shadowbanning consiste na moderação de conteúdo por meio do bloqueio ou restrição de um usuário ou de seu conteúdo, de modo que o banimento seja de difícil detecção pelo usuário (assimetria informacional e hipossuficiência técnica). O shadowbanning, na prática, é realizado por funcionários do aplicativo ou por algoritmos. Em tese, a sua prática pode configurar ato ilícito, arbitrariedade ou abuso de poder.
No presente caso, houve a aplicação de técnicas convencionais como a remoção total de conteúdo, tendo sido garantido ao usuário o direito de transparência acerca da moderação de conteúdo implementada pela plataforma.
STJ. 3ª Turma. REsp 2.139.749-SP, Rel. Min. Ricardo Villas Bôas Cueva, julgado em 27/8/2024 (Info 823).
Nessa linha, as diretrizes trazidas pelo STF balizarão todo o ordenamento jurídico, e vão muito além do direito de liberdade de expressão.
Eu creio que como o Min. Alexandre de Morais ressaltou, hoje, é muito difícil a ajuda das redes sociais nessa remoção de conteúdo, e trazer uma responsabilização, para um serviço que claramente lucra com os usuários, pode ser essencial no controle das mensagens ofensivas.
Como o tema já caiu em concursos
UERJ - 2022 - UERJ Art.. 19 − (...) o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. Lei Federal nº 12.965, de 23 de abril de 2014. planalto.gov.br. O artigo citado está contido na seção III da lei e se refere aos fatores que condicionam a responsabilização de provedores de aplicações de internet, em função de conteúdos gerados por terceiros em suas plataformas. Com base no texto, observa-se que tal norma tem por objetivo imputar a esses provedores a seguinte obrigação: Alternativas A) excluir postagem de cunho ideológico. B) retirar publicação danosa à saúde da população. C) garantir inviolabilidade da comunicação privada. D) preservar direito coletivo à liberdade de expressão. Gabarito: B.
Quer saber quais serão os próximos concursos?
Confira nossos artigos para Carreiras Jurídicas!