Crédito, Getty Images
O Supremo Tribunal Federal formou maioria na quarta-feira (11/6) em julgamento para que as plataformas que operam as redes sociais sejam responsáveis pelo conteúdo publicado pelos seus usuários. Até a quinta (12/6), 7 dos 11 juízes da Corte já haviam votado pela responsabilização das empresas.
No Brasil, a internet é regulada há 11 anos pelo Marco Civil da Internet — a Lei nº 12.965/2014, sancionada em 2014.
As ações contra o Marco Civil discutiam a responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos — sem a necessidade de ordem judicial.
Os processos em julgamento no STF são dois recursos — um da Meta e outra do Google — contra decisões judiciais.
O Facebook questionava uma decisão do Tribunal de Justiça de São Paulo que determinou a exclusão de um perfil falso da rede social. O Google contestava uma decisão que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais a ela.
Em ambos os casos, as ações contra as empresas diziam que o artigo 19 do Marco Civil da Internet é inconstitucional.
O dispositivo exige ordem judicial prévia e específica de exclusão de conteúdo para que provedores de internet, websites e gestores de redes sociais sejam responsabilizados por danos decorrentes de atos ilícitos praticados por terceiros.
No julgamento, já votaram pela inconstitucionalidade total ou parcial do artigo 19, e a favor da responsabilização das plataformas, os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Luís Roberto Barroso e Alexandre de Moraes. Já o ministro André Mendonça foi voto contrário.
O julgamento será retomado no dia 25 de junho, com o voto do ministro Edson Fachin. Depois, ainda terão que votar Cármen Lúcia e Nunes Marques, que havia adiantado que pedirá mais tempo para analisar o caso.
Houve divergências entre os ministros sobre como esse dispositivo da lei deve ser interpretado. Por isso, o STF ainda deve discutir e definir também em quais condições as plataformas digitais deverão responder a danos causados pelas postagens.
Responsabilização nos EUA
A questão principal discutida no STF é sobre o artigo 19 do Marco Civil da internet, que diz: “com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
As empresas de comunicação defendem essa redação do artigo — pois ela especifica que os usuários são responsáveis pelo conteúdo postado nas redes. As big techs só seriam responsabilizadas caso não retirem do ar algum conteúdo mediante uma decisão específica da Justiça.
Nos Estados Unidos, a lei segue a mesma orientação do artigo 19 brasileiro, defendido pelas big techs.
A seção 230 da Lei de Decência da Comunicação, de 1996, afirma: “nenhum provedor ou usuário de um serviço de computador interativo será tratado como editor ou falante de qualquer informação fornecida por outro provedor de conteúdo de informação”.
Essa lei americana foi colocada à prova em 1997 em um processo conhecido como Zeran contra America Online (AOL). A interpretação de um tribunal de recursos sobre esse caso estabeleceu a jurisprudência para esse assunto até os dias de hoje.
Kenneth Zeran é um cidadão americano que teve o número de seu telefone publicado por um usuário em uma plataforma que pertencia à antiga provedora AOL onde um usuário promovia mensagens de apoio a um atentado a bomba em Oklahoma.
Zeran começou a receber uma enxurrada de telefonemas e ameaças. A AOL chegou a retirar o número do site — mas o número continuou reaparecendo em outras mensagens e se espalhando pela internet. Zeran processo a AOL por agir com negligência e pela pouca iniciativa em impedir que seu telefone se espalhasse.
Zeran perdeu o processo e um tribunal de recursos decidiu que a seção 230 da lei de 1996 impede “ações judiciais que visam responsabilizar um prestador de serviços pelo exercício das funções editoriais tradicionais de uma editora — como decidir se deve publicar, retirar, adiar ou alterar o conteúdo”.
Ou seja, perante a lei, a responsabilidade pelo número de telefone publicado não é da AOL — e sim do usuário.
Nessa decisão, o tribunal de recursos também estipulou que a AOL não poderia ser processada por censura, caso retirasse o material do ar. Na interpretação dos juízes — que acabou sendo adotada como jurisprudência nos EUA — as empresas de redes sociais podem retirar conteúdos do ar que sejam material “obsceno, lascivo, sujo, excessivamente violento, assediante ou de qualquer outra forma censurável”.
Um relatório de 2024 produzido por dois pesquisadores do Congresso americano afirma que a lei americana ainda é considerada polêmica nos EUA, e que houve projetos de lei que tentaram mudar as regras para as big techs.
“Embora a lei tenha vários defensores, outros argumentam que os tribunais interpretaram a imunidade da Seção 230 de forma muito ampla”, diz o relatório.
Nos últimos anos, surgiram tentativas de mudar a lei — criando mais situações excepcionais que permitiriam responsabilizar os provedores. Mas nenhum projeto de lei avançou no Congresso, devido a preocupações de que restrições aos provedores poderiam ser considerados uma afronta à Primeira Emenda da Constituição americana, que estabelece a liberdade de expressão no país.
Responsabilização na Europa
Na Europa, as big techs são reguladas por uma lei chamada de Regulamento dos Serviços Digitais (ou DSA — EU Digital Services Act — como é mais conhecida), que entrou em vigor em novembro de 2022.
A lei impõe regras mais rigorosas — que incluem planos para proteger crianças e impedir interferências eleitorais — para as maiores plataformas, com mais de 45 milhões de usuários na União Europeia.
As plataformas sujeitas a regras mais rígidas são: Alibaba, AliExpress, Amazon Store, Apple App Store, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X, Wikipedia, YouTube e Zalando.
- remoção de qualquer conteúdo ilegal;
- proteção a direitos como liberdade de expressão, liberdade de imprensa, discriminação, proteção ao consumidor e direitos da criança;
- segurança pública e ameaças aos processos eleitorais;
- atenção a questões como violência de gênero, saúde pública, proteção de menores e bem-estar mental e físico;
- proibição de publicidade direcionada para crianças.
Sobre a questão da responsabilização de usuários ou das big techs pelo conteúdo publicado, a lei diz que os provedores não são responsáveis pelo conteúdo hospedado em seu serviço, desde que não saibam que o conteúdo é ilegal ou infrator.
As plataformas não são responsabilizadas caso bloqueiem ou retirem imediatamente o acesso a esse conteúdo assim que souberem que se trata de conteúdo ilegal. Pelo artigo 6 da lei europeia de serviços digitais, a empresa fica resposável pelo conteúdo assim que tomar ciência de que se trata de conteúdo ilegal (sem a necessidade de uma decisão judicial obrigando a retirada do conteúdo).
O artigo 16 da lei europeia regula como deve ser feita a notificação pelo usuário. As empresas precisam disponibilizar mecanismos de fácil acesso e compreensão para os usuários fazerem uma denúncia. Já o usuário precisa indicar precisamente como localizar o conteúdo ilegal e precisa dar uma explicação bem embasada sobre porque o conteúdo é ilegal.
Se todas essas condições forem cumpridas, a empresa é considerada ciente — e obrigada a agir. Caso a empresa retire algum material, o usuário que originou o conteúdo precisa ser imediatamente notificado.
Pela mesma lei europeia, as empresas não são obrigadas a monitorar o que está sendo publicado pelos usuários. Mas as empresas podem conduzir investigações voluntárias e retirar conteúdo que considerem que possa ser ilegal.
A lei europeia, assim como a americana, segue algo conhecido no meio jurídico como o princípio do “bom Samaritano”: as plataformas online não devem ser penalizadas por tomarem voluntariamente medidas para retirar conteúdos ilegais, mesmo que se prove posteriormente que a retirada foi ilegal.
No Reino Unido, a legislação que trata do assunto — a Online Safety Bill — entrou em vigor há menos de dois anos, em outubro de 2023. Muitos dos dispositivos da lei ainda estão sendo criados e implementados.
A lei exige que as empresas façam uma análise dos riscos que diferentes tipos de conteúdo ilegal podem gerar para seus usuários. Além disso, cada empresa precisa nomear um representante legal que pode ser responsabilizado. A lei exige que as empresas mantenham ferramentas de denúncia de conteúdo que sejam fáceis de serem usadas. As multas para empresas que não cumprem a lei podem chegar a 18 milhões de libras (R$ 135,5 milhões) ou até 10% do faturamento da empresa.

Crédito, Getty Images
Big techs e governos
No mundo todo, existe um embate entre as big techs, os governos, os sistemas judiciários e os Parlamentos.
Na Europa, a entrada em vigor do DSA em 2022 foi o mais recente capítulo desse embate. Legisladores impuseram diversas restrições e exigências às empresas de tecnologia.
As empresas precisam compartilhar com os reguladores detalhes sobre o funcionamento de seus algoritmos. Isso pode incluir como são decididos anúncios que os usuários veem ou quais postagens aparecem em seu feed.
Elas também são obrigadas a ter sistemas para compartilhar dados com pesquisadores independentes.
As empresas tiveram quatro meses para se adaptar.
O TikTok, por exemplo, impediu que usuários na Europa com idades entre 13 e 17 anos recebessem anúncios personalizados com base em sua atividade online. Os aplicativos Meta — incluindo Facebook e Instagram — pararam de exibir anúncios globais para usuários de 13 a 17 anos com base em sua atividade nos aplicativos.
Na Europa, o Facebook e o Instagram deram aos usuários a opção de visualizar Stories e Reels apenas das pessoas que seguem, classificados em ordem cronológica.
No Reino Unido e na Europa, o Snapchat restringiu anúncios externos personalizados para usuários de 13 a 17 anos. A empresa também criou uma biblioteca de anúncios exibidos na UE.
Também houve compromissos para fornecer mais dados aos pesquisadores independentes. O Google prometeu aumentar o acesso aos dados externos para aqueles que desejam entender mais sobre como a Pesquisa Google, o YouTube, o Google Maps, o Google Play e o Shopping funcionam.
Nos EUA, onde não existe uma regra como a DSA europeia ou o Marco Civil brasileiro que regule as grandes empresas de tecnologia, muitos projetos de lei específicos para regular as redes foram debatidos — mas acabaram impedidos pela primeira emenda da Constituição, que não só garante as liberdades fundamentais — como liberdade de religião, de expressão, de imprensa e de reunião — como também impede o Congresso de criar leis que restrinjam essas liberdades.
Mas nos últimos anos, surgiram leis federais e estaduais que vêm desafiando o poder das big techs.
Em 2000, os EUA introduziram a Lei de Proteção à Privacidade Online de Crianças (COPPA), que exige que os sites obtenham o consentimento dos pais antes de coletar, usar ou divulgar dados pessoais de crianças menores de 13 anos.
E no ano passado, nove Estados americanos diferentes — Maryland, Vermont, Minnesota, Hawaii, Illinois, New Mexico, Carolina do Sul, Novo México e Nevada — introduziram leis estaduais para aumentar a proteção de crianças, conhecidas informalmente como “Kids Codes”.
Essas leis tentam impedir que empresas de tecnologia coletem dados de crianças de forma predatória e usem recursos que possam causar danos a elas.
Outra preocupação central de reguladores nos EUA tem sido o domínio de mercado excessivo de algumas empresas de big tech nos seus mercados.
“O Google detém 89% do mercado global de mecanismos de busca, a Apple detém 51% do mercado de celulares e tablets nos EUA, a Microsoft comanda 62% dos sistemas operacionais para desktop e o Facebook e o Instagram, juntos, dominam 57% do mercado de mídias sociais. Com essa posição de liderança, as Big Techs exercem influência significativa na definição de padrões do setor, moldando o comportamento do consumidor e influenciando o discurso público”, diz um relatório do banco JP Morgan sobre regulação no mercado americano.
Processos antitruste foram movidos contra empresas como Google, Meta e NVidia — e podem resultar no futuro na quebra dessas empresas em operações menores.
Em abril começou um julgamento contra a Meta, em que a Comissão Federal de Comércio — que é o órgão de defesa da concorrência e do consumidor dos EUA — alega que a empresa, que já era dona do Facebook, comprou o Instagram em 2012 e o WhatsApp em 2014 para eliminar a concorrência, efetivamente obtendo um monopólio.
Quando questionada pela BBC sobre o assunto em abril, a Meta evitou a questão e disse apenas que “os processos da FTC contra a Meta desafiam a realidade”.
“Mais de dez anos depois que a FTC revisou e liberou nossas aquisições, a ação da comissão neste caso envia a mensagem de que nenhum acordo é verdadeiramente final”, disse um porta-voz da Meta à BBC.