Sentença do Juizado de Itanhaém condena Facebook a remover contas fraudulentas e indenizar advogado em R$ 4 mil — e o julgamento histórico do STF sobre o art. 19 do Marco Civil reforça cada passo do raciocínio judicial.
O caso
De início, vamos comentar a seguinte decisão:
Demora para bloquear contas falsas no WhatsApp gera dever de indenizar
Isto é, um advogado da cidade de Itanhaém, no litoral paulista, teve nome, fotografia e a marca do próprio escritório “sequestrados” por criminosos no WhatsApp.
Em síntese, perfis falsos foram criados repetidamente com seus dados, e as mensagens chegavam a clientes reais pedindo pagamento de honorários.
Nesse sentido, as denúncias à plataforma não resultaram em qualquer providência concreta.
Foi preciso recorrer ao Judiciário para que a situação tivesse fim.
Nessa linha, em 13 de fevereiro de 2026, o Juizado Especial Cível e Criminal da Comarca de Itanhaém, proferiu sentença no processo nº 4002594-23.2025.8.26.0266/SP, julgando parcialmente procedente a ação movida pelo advogado em face do Facebook Serviços Online do Brasil Ltda.
Nesse sentido, a decisão impõe à empresa a remoção de todas as contas falsas em até cinco dias, sob pena de multa. Também houve a condenação ao pagamento de R$ 4.000,00 a título de danos morais.
O caso ganhou um pano de fundo jurídico ainda mais rico com o julgamento proferido pelo Supremo Tribunal Federal em 27 de junho de 2025, nos REs 1.057.258/MG e 1.037.396/SP (Temas 533 e 987 da repercussão geral), que declarou a inconstitucionalidade parcial e progressiva do art. 19 do Marco Civil da Internet e reescreveu as regras do jogo para a responsabilidade civil das big techs no Brasil.
Isto porque, a sentença de Itanhaém, embora anterior ao pleno amadurecimento desse novo regime, converge com ele em pontos essenciais, vamos aprofundar.
Fundamentação jurídica: do fortuito externo ao fortuito interno
De pronto, a principal tese defensiva do Facebook foi a de que a fraude constituía fortuito externo — fato de terceiro, praticado por engenharia social com dados públicos, que romperia o nexo causal e eximiria a plataforma de qualquer responsabilidade.
Por outro lado, a sentença rechaçou o argumento com precisão técnica, estabelecendo uma distinção que tem ganhado terreno crescente na jurisprudência brasileira.
"A alegação defensiva de 'fortuito externo' (engenharia social com dados públicos) não elide o dever de guarda e resposta diligente. Tal fato afasta a tese de fortuito externo e configura o fortuito interno, pois decorre da falha nos mecanismos de moderação e controle da própria plataforma."
Ora, a distinção é juridicamente relevante.
O fortuito externo é o evento completamente alheio à atividade empresarial, capaz de romper o nexo de causalidade.
Por outro lado, o fortuito interno, ao contrário, é aquele que, mesmo sendo causado por terceiro, insere-se nos riscos inerentes ao próprio negócio — e por isso não exonera o fornecedor. Para a magistrada, ao disponibilizar uma plataforma de comunicação global e auferir lucros com a exploração de dados e publicidade, a requerida assume o dever de zelar pela segurança e integridade do ecossistema virtual.
O fundamento legal é o art. 14 do Código de Defesa do Consumidor, que estabelece a responsabilidade objetiva do fornecedor de serviços pelos defeitos relativos à sua prestação, independentemente de culpa.
Assim, o ponto de inflexão no raciocínio judicial foi o seguinte: a plataforma não responde pela criação inicial de um perfil falso — isso é conduta de terceiro.
Mas sua responsabilidade torna-se cristalina no momento em que, cientificada da irregularidade, mantém-se inerte.
"O nexo causal, portanto, está estabelecido não pela criação do perfil falso em si, mas pela permissividade da plataforma que, ao não suspender/remover as contas denunciadas, permitiu a continuidade das condutas irregulares."
Os documentos juntados demonstraram que o autor formulou inúmeras denúncias ao suporte técnico da ré — e a empresa não demonstrou ter tomado qualquer providência para o bloqueio ou suspensão das contas. A inércia, nesse contexto, transforma o ato ilícito de terceiro em defeito próprio do serviço.
Contexto: da jurisprudência estadual ao STF — o novo regime do Marco Civil
Ora, o caso de Itanhaém não é isolado. Nos últimos anos, o chamado ‘golpe do falso advogado’ gerou volumosa produção jurisprudencial nos tribunais estaduais.
Em dezembro de 2024, a 37ª Câmara de Direito Privado do TJSP, no AI nº 2320652-91.2024.8.26.0000, pacificou a questão da legitimidade passiva ao reconhecer que WhatsApp LLC e Facebook integram o mesmo grupo econômico — a Meta Platforms Inc. — respondendo solidariamente nos termos dos arts. 7º, parágrafo único, e 34 do CDC.
Em setembro de 2024, a 3ª Turma Recursal Cível assentou que o defeito do serviço fica evidenciado quando a plataforma não atende as reclamações do autor, e que o dano moral é in re ipsa.
Julgamento dos Temas 533 e 987 – responsabilização de provedores de aplicações
Assim, esse movimento jurisprudencial encontrou, em junho de 2025, sua confirmação mais expressiva. No julgamento histórico dos Temas 533 e 987 da repercussão geral, o STF declarou a inconstitucionalidade parcial e progressiva do art. 19 do Marco Civil da Internet — dispositivo que, desde 2014, exigia ordem judicial específica para que houvesse a responsabilização dos provedores de aplicações por conteúdos gerados por terceiros. O tribunal reconheceu que a regra geral do art. 19 não oferece proteção suficiente a bens jurídicos constitucionais de alta relevância, como dignidade, honra, imagem e o próprio Estado Democrático de Direito:
Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI:
1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).
Interpretação do art. 19 do MCI:
2. Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE.
3. O provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas.
3.1. Nas hipóteses de crime contra a honra aplica-se o art. 19 do MCI, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
3.2. Em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Presunção de responsabilidade:
4. Fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos ilícitos quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo.
Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves:
5. O provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de crimes graves previstas no seguinte rol taxativo:
(a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 286, parágrafo único, 359-L, 359-M, 359-N, 359-P e 359-R do Código Penal;
(b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016;
(c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal;
(d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989;
(e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e art. 147-B do CP);
(f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente;
g) tráfico de pessoas (CP, art. 149-A).
5.1 A responsabilidade dos provedores de aplicações de internet prevista neste item diz respeito à configuração de falha sistêmica.
5.2 Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa.
5.3. Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor.
5.4. A existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI.
5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
Incidência do art. 19:
6. Aplica-se o art. 19 do MCI ao (a) provedor de serviços de e-mail; (b) provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; (c) provedor de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88).
Marketplaces:
7. Os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº 8.078/90).
Deveres adicionais:
8. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
9. Deverão, igualmente, disponibilizar a usuários e a não usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente.
10. Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.
11. Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios. Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para (a) responder perante as esferas administrativa e judicial; (b) prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos; aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários (quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos; (c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais.
Natureza da responsabilidade:
12. Não haverá responsabilidade objetiva na aplicação da tese aqui enunciada.
Apelo ao legislador:
13. Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.
Modulação dos efeitos temporais:
14. Para preservar a segurança jurídica, ficam modulados os efeitos da presente decisão, que somente se aplicará prospectivamente, ressalvadas decisões transitadas em julgado.
STF. Plenário. RE 1.057.258/MG, Rel. Min. Luiz Fux, julgado em 27/06/2025 (Repercussão Geral – Tema 533) (Info 1184).
STF. Plenário. RE 1.037.396/SP, Rel. Min. Dias Toffoli, julgado em 27/06/2025 (Repercussão Geral – Tema 987) (Info 1184).
A nova interpretação fixada pelo STF é direta: o provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21 do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos.
Assim, a mesma regra se aplica expressamente às contas denunciadas como inautênticas.
Em outras palavras, a partir de uma simples notificação extrajudicial demonstrando que uma conta é falsa e utilizada para práticas ilícitas, surge para a plataforma o dever de agir — e a inércia a responsabiliza.
▸ Relevância direta: o STF equiparou o regime das contas inautênticas ao dos conteúdos claramente criminosos, exigindo remoção após notificação extrajudicial — exatamente o que o autor de Itanhaém fez ao denunciar os perfis falsos ao suporte técnico da ré.
O STF também estabeleceu uma distinção importante que ressoa no caso concreto: as novas regras não se aplicam, em sua plenitude, aos serviços de mensageria privada enquanto comunicações interpessoais, por serem protegidos pelo sigilo constitucional das comunicações.
Contudo, a questão dos perfis falsos que usam a plataforma para projetar golpes ao público externo — clientes do advogado, terceiros — escapa claramente desse escudo protetivo, pois não se trata de conteúdo de comunicação privada entre usuários, mas de contas criadas especificamente para enganar terceiros.
Responsabilidade subjetiva
Há, porém, uma tensão interpretativa que merece atenção.

A sentença de Itanhaém fundamentou a responsabilidade com base no art. 14 do CDC — responsabilidade objetiva pelo risco do empreendimento.
O STF, ao fixar a tese dos Temas 533 e 987, deixou claro que não haverá responsabilidade objetiva na aplicação do novo regime: a natureza da responsabilidade é subjetiva, ainda que, em casos de conteúdo impulsionado ou disseminado por bots, haja presunção de culpa. Para os casos de contas inautênticas denunciadas e não removidas, o regime do art. 21 do MCI é o aplicável — responsabilidade subjetiva após notificação.
Na prática do caso concreto, contudo, o resultado seria o mesmo: cientificada e inerte, a plataforma responde.
Impactos práticos: o que muda para vítimas, advogados e plataformas
Vítimas
Para as vítimas de golpes que utilizam identidade alheia — em especial profissionais liberais como advogados, médicos e contadores, cuja reputação é diretamente vinculada ao nome —, a decisão reforça um caminho processual viável: documentar as denúncias feitas à plataforma, registrar boletim de ocorrência e ajuizar ação no Juizado Especial Cível. O dano moral, nesses casos, é in re ipsa e não depende de prova de prejuízo econômico concreto.
Com o novo regime do STF, esse caminho ficou ainda mais sólido. O item 3 da tese fixada nos Temas 533 e 987 determina que contas denunciadas como inautênticas devem ser removidas após notificação extrajudicial, sem necessidade de ordem judicial prévia. Isso significa que a vítima não precisa mais aguardar o lento trâmite de uma tutela de urgência para exigir a retirada do perfil falso: a notificação formal à plataforma já é suficiente para criar o dever de agir — e a inércia, a partir daí, gera responsabilidade civil.
A indenização fixada em R$ 4.000,00 ficou muito abaixo dos R$ 60.000,00 pedidos na inicial, o que é comum no rito dos Juizados, onde o arbitramento tende à moderação. A magistrada aplicou os critérios clássicos: grau de culpa do ofensor, repercussão social dos fatos, condição econômica das partes e o caráter dúplice da verba — punitivo para o infrator, compensatório para a vítima —, vedando tanto o enriquecimento sem causa quanto o valor inexpressivo que nada desestimula.
Plataformas
Para as plataformas digitais, a combinação entre a jurisprudência estadual e o novo regime do STF representa um alerta de dupla via.
Primeiro: o mero fornecimento de um canal de denúncias não é suficiente para afastar a responsabilidade — é preciso demonstrar que se agiu com diligência após a notificação.
Segundo: os deveres adicionais fixados pelo STF — relatórios anuais de transparência, canais de atendimento acessíveis a usuários e não usuários, autorregulação com devido processo e representante legal com poderes plenos no Brasil — transformam a moderação de conteúdo de uma escolha de negócio em uma obrigação jurídica.
Em síntese, a sentença da Comarca de Itanhaém e o julgamento do STF constroem, em camadas complementares, uma mesma mensagem: plataformas globais de comunicação não são infraestruturas neutras. Ao se beneficiarem economicamente dos dados e da publicidade gerados por seus usuários, assumem um dever ativo de segurança que não se cumpre com silêncio. Quando notificadas e inertes, tornam-se responsáveis não pelo crime que não previram, mas pelo dano que permitiram continuar.
Como o tema já caiu em provas
Ano: 2025 Banca: Fundação Getúlio Vargas – FGV Prova: FGV - MPE RJ - Promotor de Justiça Substituto – 2025 Giovana é influenciadora digital e, depois de ter um filho, do qual tinha a guarda unilateral, passou a expor nas redes sociais toda sua rotina de maternidade. Romeu, então, primeiro notifica o provedor da rede social preferida de Giovana, acusando-a de sharenting, isto é, da superexposição de sua filha na internet, com o que não concordava. O provedor rejeita a denúncia, o que leva Romeu a judicializar a questão, inclusive pedindo indenização por danos morais em face de Giovana e do provedor. Após a instrução comprovar que, realmente, havia um ostensivo exagero nas postagens protagonizadas pela criança, que também figurava como autora, os autos vão ao Ministério Público em fevereiro de 2025. Nesse caso, o escorreito parecer deverá demonstrar que: E. O pleito procede em relação a ambos os autores, inclusive aquele dirigido ao provedor, o que pode ser reconhecido desde logo à luz do Marco Civil da Internet em sua normatividade original, porquanto seja obrigação de todos velar pelo melhor interesse da criança e do adolescente, os quais constam expressamente também na Lei Geral de Proteção de Dados. (Correto)
Quer saber tudo sobre concursos previstos?
Confira nossos artigos!
Quer estudar para Concursos de Direito?
O Estratégia Carreira Jurídica é campeão de aprovações nos concursos para Carreiras Jurídicas com um corpo docente qualificado e materiais completos. Conheça nossos cursos e garanta sua aprovação:
