Até onde vai a influência das grandes empresas de tecnologia sobre o conteúdo que postamos na internet?
O termo “algospeak” surgiu em inglês para designar a “linguagem algorítmica”, criada para agradar os algoritmos das redes sociais (Foto Freepik)
Usuários do mundo inteiro têm evitado certa linguagem nas redes. Eles mesmos admitem que parece absurdo, mas acreditam que, se usarem termos “proibidos”, seus posts vão sumir.
Assim nasceu o algospeak — uma linguagem codificada criada para driblar supostas punições dos algoritmos.
Plataformas como YouTube, Meta e TikTok juram que não existe lista de palavras banidas. Dizem que tudo depende de contexto.
Mas, na prática, há muitos casos em que conteúdos são derrubados, reduzidos ou escondidos sem explicação clara.
Essa falta de transparência cria um clima de autocensura que também rola no Brasil, onde creators vivem falando que “o algoritmo matou o engajamento”.
A autocensura virou cultura
Sem saber se um post flopou por conteúdo sensível ou por má qualidade, criadores passaram a trocar palavras sérias por termos bobos ou metáforas. Outros simplesmente evitam certos temas — como política, violência ou conflitos internacionais.
Num cenário em que redes são fonte de informação para milhões, isso significa que conteúdos importantes podem nunca chegar a parte do público.
Criadores que sentem o peso invisível
O criador americano Alex Pearlman, famoso no TikTok, diz que evita até falar “YouTube”, porque o app “não gosta” de mandar gente para concorrentes.
Em temas sensíveis — como os vídeos sobre Jeffrey Epstein — Pearlman teve conteúdos apagados sem explicação, enquanto no Instagram e YouTube eles ficaram.
Resultado? Ele começou a usar código. Em vez de dizer “Epstein”, passou a chamá-lo de “Homem da Ilha”. O problema é óbvio: parte do público nem entende sobre quem ele está falando. É o mesmo tipo de coisa que muitos creators brasileiros fazem trocando “sexo” por “sechu”, “morte” por “passou dessa pra melhor”, e por aí vai.
O silêncio das plataformas
O TikTok não comenta casos específicos, mas diz que tudo é mito. Porém, investigações mostram interferências reais: desde restrições a conteúdo palestino no Facebook e Instagram, até políticas antigas do TikTok que reduziam a visibilidade de pessoas pobres, com deficiência ou LGBTQIA+.
Outras denúncias falam em remoção de vídeos “políticos demais” e até um “botão secreto” para forçar virais — admissão feita pelo próprio TikTok em 2023.
Quando a paranoia vira comportamento coletivo
Em 2025, durante protestos nos EUA, usuários inventaram um “festival de música” como código para falar das manifestações.
Criadores gravavam vídeos nas ruas dizendo “estamos no festival”, para tentar driblar uma suposta censura. Só que não havia prova de que a censura existia.
O linguista Adam Aleksic explica: muita gente só segue a onda sem saber o que realmente é censurado ou não. E o código viraliza justamente porque todo mundo quer fazer parte do “segredo”. É o que pesquisadores chamam de “imaginário algorítmico”.
O algoritmo aprende com a gente
As pessoas mudam o comportamento por medo dos algoritmos — e os algoritmos, que aprendem padrões, acabam respondendo a esse comportamento distorcido. Ou seja, a paranoia vira profecia autorrealizável.
Isso também ocorre no Brasil: quando creators param de falar de temas políticos, o próprio algoritmo entende que o público “não quer” esses assuntos.
Fato, mito ou mistura dos dois?
Criadores como Ariana Jasmine Afshar sabem que existe interferência, mas admitem que nem sempre dá para entender o que realmente acontece.
A Meta já assumiu publicamente que reduziu alcance de conteúdo político entre 2023 e 2025. Depois recuou. Plataformas fazem ajustes constantes, muitas vezes sem avisar ninguém.
No fim das contas, é tudo sobre dinheiro
Segundo especialistas, o objetivo das plataformas é agradar usuários, manter anunciantes tranquilos e evitar regulações governamentais.
Segurança e liberdade de expressão vêm depois. Se for preciso mexer no algoritmo para evitar polêmica, elas vão mexer — aqui ou lá fora.
A pergunta que fica é: se redes sociais são empresas com fins lucrativos, será que a forma mais saudável de participar do debate público é depender totalmente delas?