Entenda o debate sobre a regulamentação das redes sociais no Brasil e o impacto do tema 987, pendente de decisão no STF.
A discussão sobre a regulamentação das redes sociais no Brasil ganhou novo fôlego recentemente, com a seguinte notícia:
“Ministros do Supremo Tribunal Federal (STF) e do Tribunal Superior Eleitoral (TSE) pretendem iniciar, após o segundo turno das eleições, a discussão de regras para a atuação das redes sociais no Brasil. Sob reserva, magistrados argumentam não ser possível seguir sem regulação até o pleito de 2026, sobretudo ante a dificuldade do Congresso Nacional em avançar numa legislação sobre o tema.”
Vamos entender do que se trata.
No fundo, trata-se do julgamento de uma ação que pode modificar significativamente as regras de responsabilização das plataformas digitais por conteúdos gerados por seus usuários. Este debate se insere em um contexto mais amplo de preocupações com a disseminação de desinformação, discursos de ódio e ameaças às instituições democráticas no ambiente online.
Veja o tema pendente de discussão no STF – tema 987:
Tema 987 – Discussão sobre a constitucionalidade do art. 19 da Lei n. 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.
De que trata o art. 19 do Marco Civil da Internet?
Atualmente, o Marco Civil da Internet (Lei nº 12.965/2014) estabelece que as plataformas digitais só podem ser responsabilizadas por conteúdos de terceiros se, após ordem judicial específica, não removerem o material considerado ilícito.
A explicação é que esta norma visa equilibrar a liberdade de expressão com a necessidade de coibir abusos no ambiente digital, mas que depende de uma ação judicial:
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. § 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material. § 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal. § 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais. § 4º O juiz, inclusive no procedimento previsto no § 3º, poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
E o que está em jogo no STF?
Em síntese, o cerne da discussão atual reside na possibilidade de responsabilizar as plataformas por conteúdos ilícitos mesmo sem prévia decisão judicial.
Isso significaria que as redes sociais poderiam ser punidas com indenizações caso não removessem, por iniciativa própria ou após notificação de terceiros, conteúdos potencialmente nocivos.
No fundo, é como se fosse uma atribuição da própria plataforma gerir conteúdos potencialmente nocivos, e caso não o faça por si só, já há responsabilização das plataformas.
Vale ressaltar que o STJ já decidiu que as plataformas podem retirar conteúdo de ofício:
O art. 19 da Lei nº 12.965/2014 (“Marco Civil da Internet”) não impede nem proíbe que o próprio provedor retire de sua plataforma o conteúdo que violar a lei ou os seus termos de uso. Essa retirada pode ser reconhecida como uma atividade lícita de compliance interno da empresa, que estará sujeita à responsabilização por eventual retirada indevida que venha a causar prejuízo injustificado ao usuário. Vale ressaltar que, no caso concreto, o STJ entendeu que não houve shadowbannig. STJ. 3ª Turma. REsp 2.139.749-SP, Rel. Min. Ricardo Villas Bôas Cueva, julgado em 27/8/2024 (Info 823).
Como esse tema é regulamentado em outros países?
Temos uma forma diferente entre Estados Unidos e União Europeia de tratar o assunto.
Estados Unidos | União Europeia | |
---|---|---|
Abordagem regulatória | Postura mais liberal, priorizando a autorregulação das plataformas | Abordagem mais proativa e intervencionista |
Responsabilidade das plataformas | Maior proteção legal contra responsabilização (Seção 230) | Responsabilidades mais amplas na moderação de conteúdo e mitigação de riscos |
Transparência | Exigências menos rigorosas sobre transparência de algoritmos e processos de moderação | O DSA exige maior transparência sobre algoritmos e processos de moderação |
Remoção de conteúdo | Plataformas têm mais discricionariedade na moderação | Maior pressão para a remoção rápida de conteúdos ilegais |
E quais são os argumentos do Tema 987 no STF sobre responsabilizar diretamente às plataformas mesmo sem decisão judicial, bem como a necessidade de regulamentação das redes?
Argumentos favoráveis à regulamentação das redes sociais:
- Proteção institucional: Defensores da regulamentação argumentam que é necessário um controle mais rigoroso para proteger as instituições democráticas contra ameaças e discursos antidemocráticos que se propagam rapidamente nas redes.
- Responsabilidade social: Há um entendimento de que as plataformas digitais, como atores centrais no ecossistema informacional, devem assumir maior responsabilidade pelo conteúdo que circula em seus ambientes.
- Celeridade na remoção de conteúdos nocivos: A proposta visa agilizar a remoção de conteúdos potencialmente danosos, sem a necessidade de aguardar uma decisão judicial, que pode ser demorada.
Argumentos contrários à regulamentação das redes sociais:
- Risco à liberdade de expressão: Críticos temem que a regulamentação possa levar a uma censura excessiva, com as plataformas removendo conteúdos de forma indiscriminada por medo de punições.
- Subjetividade na definição de conteúdo ilícito: Há preocupações quanto à dificuldade de definir claramente o que constitui um conteúdo ilícito, o que poderia levar a interpretações arbitrárias.
- Autocensura e limitação do debate público: Existe o receio de que a regulamentação possa inibir a livre circulação de ideias e o debate público, elementos essenciais para uma democracia saudável.
Como está o tema no Congresso? regulamentação das redes sociais
O Projeto de Lei 2630/2020, de autoria do senador Alessandro Vieira (PSDB-SE), foi aprovado no Senado em 2020, mas encontra-se atualmente em tramitação na Câmara dos Deputados.
Vale ressaltar que as Plataformas digitais, isto é, empresas como Google, Meta e Twitter têm se posicionado contra vários aspectos do projeto, argumentando que ele poderia prejudicar a inovação e a liberdade na internet.
Por outro lado, a Sociedade civil, ou seja, as organizações de direitos digitais estão divididas, com algumas apoiando a regulamentação e outras expressando preocupações sobre seus potenciais impactos negativos.
De acordo com BRITO CRUZ et al. (2020):
Como o tema já caiu em concursos:
FGV – 2021 – DPE-RJ – Defensor Público
João, inconformado com o término do relacionamento amoroso, decide publicar em sua rede social vídeos de cenas de nudez e atos sexuais com Maria, que haviam sido gravados na constância do relacionamento e com o consentimento dela. João publicou tais vídeos com o objetivo de chantagear Maria para que ela permanecesse relacionando-se com ele. Maria não consentiu tal publicação e, visando à remoção imediata do conteúdo, notifica extrajudicialmente a rede social. A notificação foi recebida pelos administradores da rede social e continha todos os elementos que permitiam a identificação específica do material apontado como violador da intimidade.
Considerando o caso concreto, é correto afirmar que:
a) o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por João se descumprir ordem judicial específica, de modo que o conteúdo sob exame só pode ser removido mediante decisão judicial, sendo ineficaz a notificação de Maria para fins de responsabilização do provedor;
b) não haverá responsabilidade civil do provedor de aplicações de internet pelo fato de o conteúdo ter sido gerado por terceiro, incidindo o fato de terceiro como excludente do nexo de causalidade;
c) somente João, autor da conduta de postar, pode ser responsabilizado civilmente pelos danos causados a Maria, respondendo mediante o regime objetivo de responsabilidade civil, considerando o grave dano à dignidade da pessoa humana e seus aspectos da personalidade, sobrelevando-se a importância de ampliação da tutela da mulher vítima do assédio sexual online;
d) o provedor de aplicações de internet será responsabilizado subsidiariamente pelos danos sofridos por Maria quando, após o recebimento de notificação, deixar de promover a indisponibilização do conteúdo de forma diligente, no âmbito e nos limites técnicos do seu serviço;
e) o provedor de aplicações de internet responderá objetivamente pelos danos causados a Maria e, ainda, solidariamente com João, deflagrando-se o dever de indenizar a partir do imediato momento em que João postou o material ofensivo.
Gabarito: Letra D
Fontes – Regulamentação das redes sociais
- ESTADOS UNIDOS. Communications Decency Act of 1996, 47 U.S.C. § 230. Disponível em: https://www.law.cornell.edu/uscode/text/47/230. Acesso em: 9 abr. 2024.
- CARMO, V. M. do. O Regulamento Europeu sobre Serviços Digitais (Digital Services Act): uma nova era na regulação das plataformas online. Revista de Direito, Governança e Novas Tecnologias, v. 7, n. 1, p. 112-133, 2021. Disponível em: https://www.indexlaw.org/index.php/revistadgnt/article/view/7856. Acesso em: 9 abr. 2024.
- BLOCH-WEHBA, H. A. Automation in Moderation. Cornell International Law Journal, v. 53, n. 1, p. 41-96, 2020. Disponível em: https://scholarship.law.cornell.edu/cilj/vol53/iss1/2. Acesso em: 9 abr. 2024.
- FROSIO, G. F. Reforming Intermediary Liability in the Platform Economy: A European Digital Single Market Strategy. Northwestern University Law Review, v. 112, p. 19-46, 2017. Disponível em: https://scholarlycommons.law.northwestern.edu/nulr/vol112/iss2/1/. Acesso em: 9 abr. 2024.
- KELLER, D. Fifty States of Section 230 Reform. Berkeley Technology Law Journal, v. 38, 2023. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4191768. Acesso em: 9 abr. 2024.
- SOUZA, C. A.; LEMOS, R. Marco Civil da Internet: construção e aplicação. Rio de Janeiro: Editar, 2016.
Quer saber quais serão os próximos concursos?
Confira nossos artigos para Carreiras Jurídicas!