YouTube derruba quase 11 000 canais de propaganda ligados à China, Rússia e outros governos

Image by StockSnap from Pixabay

O YouTube removeu 10 994 canais durante o 2º trimestre de 2025, identificados como parte de operações coordenadas de desinformação vinculadas a governos como China e Rússia. A maioria dos canais removidos—7 700—estava associada a campanhas pró-China, enquanto cerca de 2 000 eram ligadas à Rússia. Essas ações fazem parte de um esforço contínuo do Threat Analysis Group (TAG), do Google, para combater influências estatais na plataforma.

A iniciativa do YouTube acompanha um esforço global das plataformas digitais. Só nos primeiros seis meses de 2025, foram derrubados cerca de 34 000 canais desde janeiro, com um pico de 23 000 no 1º trimestre e 11 000 nos meses de abril a junho.

📌 Como funcionavam essas operações?

A rede pró-China postava conteúdo em mandarim e inglês, exaltando o governo chinês, o presidente Xi Jinping e criticando a política externa dos EUA. Já a propaganda russa produzia vídeos em diversas línguas (inglês, russo, polonês, ucraniano), favorecendo narrativas favoráveis à Rússia e críticas a Ucrânia, OTAN e países ocidentais.

Além de China e Rússia, o Google eliminou campanhas vindas de Irã, Turquia, Azerbaijão, Romênia, Israel e Gana, voltadas a conflitos regionais como o Israel–Palestina e eleições locais.

O avanço da propaganda por IA

Enquanto canais tradicionais são removidos, campanhas mais sofisticadas utilizam inteligência artificial para aumentar o alcance. A campanha russa conhecida como Operation Overload, ou Matryoshka, emprega IA para gerar vídeos falsos, deepfakes com vozes clonadas, imagens fabricadas e sites falsos, visando dividir o debate público global.

Relatórios apontam um aumento de mais de 150% no volume de conteúdo produzido pela Operation Overload entre setembro de 2024 e maio de 2025 — foram 587 novos itens checados, em comparação a 230 no ano anterior. IA acessível e gratuita tem sido peça-chave nesse aumento exponencial.

Já a China, embora com operações massivas como a Spamouflage Dragon, revela limitações — os conteúdos geralmente têm baixo engajamento e pouca ressonância internacional.

Por que essas campanhas são poderosas?

A estratégia russa é principal exemplo do chamado “firehose of falsehood”: difusão maciça e descontrolada de conteúdos contraditórios e provocativos, criando confusão e desconfiança generalizada.

Pesquisas mostram também diferença nos tons e intenções dessas operações: campanhas russas usam narrativas negativas e tóxicas, iranianas equlibram positivo e negativo, e chinesas tendem ao tom positivo, buscando reforço narrativo e influência positiva.

Qual o papel do YouTube e dos reguladores?

O Threat Analysis Group (TAG) monitora e remove influenciadores falsos, canais automatizados e redes coordinadas. Apenas no 2º trimestre de 2025, foram encerradas centenas de canais ligados à Rússia, Irã, Turquia e China, além de bloqueadores e domínios associados.

No entanto, especialistas alertam que essas ações precisam acompanhar a sofisticação crescente. O uso de IA e deepfake exige investimentos contínuos em tecnologia de moderação, identificação de conteúdo sintético e colaboração com governos e plataformas.

O YouTube intensifica a repressão a campanhas de propaganda estatal — mas o avanço da IA exige respostas rápidas. É necessária uma atuação coordenada entre plataformas, governos e a sociedade civil para preservar a integridade da informação online.

Leia também
Crítica ao governo Trump: Dois pesos, duas medidas na guerra digital das Big Techs