Crédito, Getty Images
- Author, Thomas Germain
- Role, BBC Future
Talvez você já tenha notado que as pessoas evitam certas palavras nas redes sociais.
Os usuários são os primeiros a admitir que isso pode soar ridículo. Mas muitos deles acham que não têm escolha.
Algospeak é o nome em inglês para a chamada “linguagem algorítmica”: uma linguagem totalmente codificada, construída em torno da ideia de que os algoritmos das redes sociais ignoram conteúdo que inclua palavras ou frases proibidas, seja para alimentar agendas políticas das empresas de tecnologia ou para limpar os nossos feeds para os anunciantes.
As companhias responsáveis pelas redes sociais juram que é tudo bobagem. O porta-voz do YouTube Boot Bullwinkle explica em detalhes.
“O YouTube não tem uma lista de palavras restritas ou proibidas”, declarou ele à BBC.
“Nossas políticas refletem nosso entendimento de que o contexto é importante e as palavras podem ter intenções e significados diferentes. A eficácia desta abordagem flexível fica evidente a partir da diversidade de temas, vozes e pontos de vista observada no YouTube.”
A Meta (responsável pelo Facebook e pelo Instagram) e o TikTok disseram o mesmo: nunca fazemos isso, é um mito.
Mas a verdade é um pouco mais complicada.
Existem inúmeros exemplos de empresas de redes sociais manipulando silenciosamente qual conteúdo é promovido e qual é ignorado, às vezes contradizendo suas próprias políticas de transparência e neutralidade.
O problema é que nunca ficamos sabendo por que uma postagem não faz sucesso. Será que dissemos algo que perturbou os algoritmos ou simplesmente o nosso vídeo é de má qualidade?
O fato é que esta ambiguidade incentivou um regime generalizado de autocensura nas redes sociais.
De um lado do espectro, pessoas falam sobre assuntos sérios com linguagem estúpida. Mas, em casos extremos, alguns usuários querem apenas viralizar e, por isso, simplesmente evitam certos temas por completo.
O homem da ilha
Pergunte a Alex Pearlman. Ele é um criador de conteúdo com milhões de seguidores no TikTok, Instagram e YouTube, onde faz postagens engraçadas, com tiradas políticas irônicas.
Pearlman afirma que a censura do algoritmo é uma presença constante no seu trabalho.
“Para falar apenas do TikTok, eu raramente pronuncio a palavra ‘YouTube'”, ele conta. “Pelo menos na minha experiência, observando as estatísticas, se eu disser uma frase como ‘visite meu canal no YouTube’, o vídeo será um fracasso.”
Ele não é o único. A experiência levou Pearlman e outros criadores a acreditar que o TikTok não quer que você encaminhe as pessoas para os concorrentes e irá derrubar o seu vídeo, se fizer esta sugestão.
O TikTok, a propósito, afirma que não faz nada deste tipo. Mas Pearlman afirma que, às vezes, os exemplos chamam mais a atenção.

Crédito, CFOTO/Future Publishing via Getty Images
Pearlman fez diversos vídeos sobre Jeffrey Epstein (1953-2019), o financista condenado por crimes sexuais que está no centro de controvérsias envolvendo figuras poderosas da política e dos negócios. Mas, no final de agosto, ele percebeu algo estranho.
“Foi exatamente na época em que surgia material sobre Epstein em toda parte”, ele conta. “Do nada, tive diversos vídeos sobre Epstein excluídos no TikTok em um único dia.”
Os mesmos vídeos permaneceram intocados no Instagram e no YouTube, mas haviam infringido alguma regra do TikTok que ele não conseguia identificar.
“Não é como se eles viessem e destacassem qual a sentença que violou as normas. Eles meio que nos deixam tentando identificar o que a caixa preta está dizendo.”
Pearlman afirma que seus recursos foram negados e o TikTok deixou “marcas” na sua conta, que ameaçam sua capacidade de ganhar dinheiro com o aplicativo.
“Pouco tempo depois, começamos a observar menos contas famosas falando diretamente sobre Epstein”, ele conta. Para Pearlman, a impressão é que outros criadores teriam enfrentado problemas similares e estavam tentando agradar os algoritmos.
Ele não parou de fazer vídeos sobre Epstein, mas tentou uma estratégia diferente. “Comecei a falar sobre ele em linguagem codificada”, ele conta.
“Comecei a chamá-lo de ‘Homem da Ilha'”, uma referência à famosa ilha particular de Epstein. “O problema da linguagem em código é que uma grande parte do público não irá saber de quem você está falando.”
Telefonei para um porta-voz do TikTok. Eles não comentaram o problema de Pearlman sobre Epstein e declinaram a falar para a reportagem.
Mas a plataforma enviou algumas informações gerais a respeito. Resumidamente, o TikTok afirma que este é um equívoco que não reflete a forma de funcionamento da plataforma.
O botão secreto
O TikTok, a Meta e o YouTube afirmam que os algoritmos que controlam o seu feed são sistemas complexos e interconectados, que usam bilhões de dados para fornecer conteúdo relevante e satisfatório. E as três plataformas publicam informações para explicar como esses sistemas funcionam.
O TikTok, por exemplo, afirma que baseia suas recomendações prevendo a probabilidade de que cada usuário individual irá interagir com o vídeo.
As empresas declaram que removem ou suprimem postagens, mas apenas quando o conteúdo viola claramente as normas estabelecidas pela comunidade, que são projetadas para equilibrar segurança e liberdade de expressão.
O TikTok, a Meta e o YouTube afirmam que sempre notificam os usuários sobre suas decisões e publicam regularmente relatórios de transparência, com detalhes sobre suas decisões de moderação.
Mas, na prática, as plataformas de redes sociais interferiram repetidas vezes em quais vozes são amplificadas ou enterradas, contradizendo sua retórica sobre abertura e equidade, segundo investigações realizadas pela BBC e por grupos ativistas, pesquisadores e outros órgãos de imprensa.
Um porta-voz da Meta declarou à BBC que a empresa comete “erros”, mas qualquer acusação de que ela teria suprimido vozes específicas deliberadamente é “inequivocamente falsa”.
Na época, o TikTok afirmou que a prática era uma medida anti-bullying “grosseira” que não era mais adotada.
O mesmo vazamento mostrou que políticas do TikTok proibiam transmissões ao vivo “controversas”, quando os usuários criticavam governos. O TikTok afirmou que esta política “não se destinava ao mercado dos Estados Unidos”.
Em 2023, o TikTok admitiu ter um botão secreto, usado para fazer viralizar certos vídeos específicos. Esta ferramenta foi supostamente empregada para agradar parcerias comerciais e, às vezes, os funcionários cometiam abusos.
Questionado se esta prática ainda está em vigor, o TikTok não respondeu até a publicação desta reportagem.
“Bem, se eles têm um botão para viralizar, eles também têm um botão para esfriar as coisas”, conclui Pearlman. “É um simples processo de raciocínio.”

Crédito, Getty Images
O YouTube já enfrentou controvérsias parecidas.
Um grupo de criadores de conteúdo LGBTQIA+, por exemplo, processou a plataforma em 2019, acusando a empresa de desmonetizar vídeos contendo palavras como “gay” ou “trans”.
A ação foi rejeitada e o YouTube afirma que nunca manteve políticas para proibir ou desmonetizar conteúdo LGBTQIA+.
As empresas de redes sociais, de fato, colocam a mão na balança. E, em alguns casos, falam a respeito livremente.
A empresa afirma estar dedicada a “manter a neutralidade do conteúdo ou, em outras palavras, o sistema de recomendação é projetado para incluir todas as comunidades e ser imparcial em relação ao conteúdo recomendado”.
Mas alguns vídeos não são criados iguais. A companhia declarou que seu feed também é projetado para “respeitar contextos locais e normas culturais” e “fornece uma experiência segura para o público em geral, particularmente para adolescentes“.
O problema é que as políticas que regem as redes sociais são severas e, em grande parte, invisíveis, segundo a professora Sarah T. Roberts, diretora do Centro de Pensamento Crítico sobre a Internet da Universidade da Califórnia em Los Angeles (UCLA), nos Estados Unidos.
As pessoas raramente sabem quais são os limites, segundo Roberts, ou quando as plataformas promovem silenciosamente algumas postagens e escondem outras.
“É uma instrumentalização das regras que inicialmente surpreende e, mesmo quando vamos mais a fundo, não faz sentido para as pessoas comuns”, afirma ela. “Em vista dessa opacidade, as pessoas criam todo tipo de teorias folclóricas.”
O festival de música que não existiu
Para Roberts, criar mecanismos para se esquivar de várias regras, sejam elas reais ou imaginárias, simplesmente faz parte da cultura e pode levar tudo para uma estranha direção.
Em agosto de 2025, milhares de usuários de redes sociais entraram online para postar sobre um fantástico festival de música em Los Angeles. As pessoas elogiaram muito os cenários da cantora Sabrina Carpenter e se deliciavam com as histórias sobre os shows de luzes.
Mas o festival não existia e Carpenter nem estava presente. Tudo era mentira e você supostamente deveria saber disso.
Naquele mês, ocorreram manifestações em massa em várias partes dos Estados Unidos, contra as batidas do Serviço de Imigração e Alfândega do país (ICE, na sigla em inglês). Mas, online, muitas pessoas acreditavam que as empresas de tecnologia estavam escondendo as notícias.
O “festival de música” era uma expressão em código que surgiu espontaneamente e se espalhou, à medida que as pessoas tentavam se comunicar em linguagem levemente velada para enganar os algoritmos.
“Estamos em Los Angeles, na Califórnia, no exato momento em que está acontecendo um festival de música“, disse o criador de conteúdo Johnny Palmadessa em um vídeo no TikTok. Ele deu destaque às palavras como dica para os espectadores.
Uma barulhenta multidão de manifestantes marchava atrás dele, entoando cânticos e mostrando cartazes.
“Sim, vamos chamar isso de ‘festival de música’, para garantir que o algoritmo mostre este belo concerto para você”, prosseguiu Palmadessa no vídeo. “Senão, corremos o risco de que este vídeo seja derrubado.”

Crédito, Reuters
Mas aqui está o mais estranho. Não houve evidência de que as empresas responsáveis pelas redes sociais tenham, de fato, suprimido notícias do protesto, segundo o linguista Adam Aleksic, autor do livro: Algospeak: How Social Media is Transforming the Future of Language (“Algospeak: como as redes sociais estão transformando o futuro da linguagem”, em tradução livre).
“É claro que o TikTok evitará que grupos de conteúdo excessivamente político se acumulem, mas, de forma geral, eles permitem a cobertura de protestos”, declarou Aleksik, em um vídeo sobre o assunto.
“Na verdade, aquilo do ‘festival de música’ começou principalmente entre pessoas hipercorretoras, que não sabiam ao certo o que o algoritmo iria ou não censurar.”
Ironicamente, o uso da expressão “festival de música” levou as pessoas a interagir com aqueles vídeos porque queriam fazer parte do grupo. Isso viralizou ainda mais os vídeos, segundo Aleksik.
E, como os vídeos do “festival de música” eram mais populares que as imagens normais do protesto, aquilo convenceu as pessoas de que a censura era real.
Os pesquisadores chamam este fenômeno de “imaginário algorítmico“. As pessoas mudam seu comportamento em resposta a crenças sobre o funcionamento dos algoritmos das redes sociais.
Sejam essas crenças corretas ou não, o comportamento do usuário acaba moldando o próprio algoritmo.
Está tudo na nossa cabeça?
Algospeak não é algo novo. A linguagem algorítmica é empregada em muitos vídeos sobre Epstein, a Faixa de Gaza e uma longa lista de assuntos controversos.
“Nenhum de nós sabe o que funciona ou não. Estamos apenas jogando tudo contra a parede para ver o que fica”, explica a popular criadora de conteúdo Ariana Jasmine Afshar, dedicada ao ativismo de esquerda.
Isso não significa que as empresas de redes sociais não tenham participação importante na formação do discurso público.
Entre 2023 e 2025, a Meta suprimiu abertamente conteúdo político. Esta política foi revertida em uma série de mudanças drásticas tomadas após a posse do presidente americano Donald Trump para seu segundo mandato.
É concebível que, naquela época, utilizar linguagem eficientemente dissimulada possa ter enganado os algoritmos projetados para sepultar suas visões políticas.
Afshar foi uma das muitas pessoas que postaram vídeos sobre os protestos apelidados de festivais de música. As palavras em código fizeram diferença? “Não faço ideia”, responde ela.
Afshar não tem dúvidas de que as empresas responsáveis pelas redes sociais interferem em postagens sobre assuntos controversos.
Ela conta que sofreu isso pessoalmente e, em alguns casos, tem certeza de que a linguagem destinada a enganar os algoritmos a ajudou a evitar a censura.
Mas ela admite que seu próprio sucesso é uma evidência de que as empresas permitem que a controvérsia política se desenvolva nas redes sociais.
Afshar relata que um representante do Instagram chegou a entrar em contato com ela no ano passado para felicitá-la pelo seu trabalho, oferecendo estratégias para que ela melhore ainda mais seus resultados na plataforma.
Um porta-voz da Meta confirmou que o Instagram entra em contato com seus criadores de conteúdo populares para ajudá-los.
“É real”, mas é difícil separar os fatos da ficção, segundo Afshar. E os caprichos das gigantes da tecnologia são vagos e mudam constantemente.
“Para falar a verdade, elas realmente me deixam confusa.”
Se você quiser compreender o que realmente está acontecendo, a solução é examinar o que as empresas de redes sociais tentam conseguir, segundo Sarah Roberts. Para ela, na verdade, a questão não é política. É dinheiro.
As empresas responsáveis pelas redes sociais ganham dinheiro com publicidade.
Isso significa, em última análise, que seu objetivo é produzir aplicativos que muitas pessoas desejem usar, oferecer conteúdo que deixem os anunciantes confortáveis e fazer tudo o que for preciso para que os órgãos reguladores do governo saiam do caminho, explica ela.
Toda mudança de algoritmo e toda decisão de moderação de conteúdo se resume a este objetivo: o lucro.
As empresas de redes sociais defendem que o propósito do seu trabalho de moderação e recomendações é criar um ambiente seguro e receptivo para seus usuários.
“E isso é verdade na maior parte do tempo”, afirma Roberts. “Os interesses de moderação de conteúdo estão alinhados aos melhores interesses da ampla maioria dos usuários.”
“Mas, se e quando elas precisarem se desviar, elas fazem.”
“Se as pessoas estiverem insatisfeitas com alguns aspectos da nossa vida como cidadãos, será que a melhor forma de nos expressarmos é simplesmente mergulhar em plataformas que lucram com essa frustração e insatisfação?”, questiona ela.
“Acho que precisamos começar a analisar, como sociedade, se esta é a nossa melhor forma de participação.”
* Thomas Germain é jornalista da BBC, especializado em tecnologia. Ele escreve há quase uma década sobre inteligência artificial, privacidade e os confins mais profundos da cultura da internet. Seu nome de usuário é @thomasgermain no X (antigo Twitter) e no TikTok.