O cenário político mundial atravessa um momento estranho — e potencialmente perigoso. Nunca foi tão fácil produzir informação, mas também nunca foi tão simples manipular percepções coletivas.
Nas redes sociais, narrativas inteiras podem surgir do nada, crescer em poucas horas e alcançar milhões de pessoas antes que qualquer checagem seja feita. A dinâmica da viralização digital — alimentada por algoritmos, polarização política e, mais recentemente, inteligência artificial — criou um ambiente em que a disputa política ocorre tanto no campo das ideias quanto no campo da engenharia informacional.
A história da política sempre conviveu com propaganda, manipulação e campanhas de difamação. O que mudou nos últimos anos foi a velocidade e a escala com que essas estratégias podem ser executadas.
Hoje, uma campanha de influência pode atingir milhões de pessoas em poucas horas — muitas vezes impulsionada por algoritmos de redes sociais, contas automatizadas e sistemas de inteligência artificial capazes de produzir textos, vídeos e comentários em massa.
Esse fenômeno deixou de ser apenas uma suspeita ou teoria. O risco foi destacado em um alerta científico preocupante publicado em janeiro de 2026. Um grupo internacional de pesquisadores reuniu evidências de que novas tecnologias de inteligência artificial podem ser usadas para manipular debates públicos em larga escala.
O aviso da ciência
No dia 22 de janeiro, a revista científica Science publicou o artigo How malicious AI swarms can threaten democracy — “Como enxames maliciosos de inteligência artificial podem ameaçar a democracia”.
O texto reuniu pesquisadores de diversas universidades e centros de estudo, entre eles a jornalista vencedora do Nobel da Paz Maria Ressa, o cientista cognitivo Gary Marcus e o psicólogo social Sander van der Linden.
O conceito central do estudo é o de “enxames de inteligência artificial”: redes de agentes digitais capazes de operar simultaneamente nas redes sociais, criando perfis falsos, interagindo com usuários reais e participando de debates políticos.
A diferença em relação aos antigos bots é significativa. Essas novas ferramentas conseguem conversar, argumentar e adaptar linguagem, simulando comportamentos humanos com impressionante naturalidade. Em vez de apenas repetir mensagens, passam a participar ativamente do debate público.
O perigo apontado pelos pesquisadores não é apenas a mentira isolada, mas algo mais sofisticado: a capacidade de fabricar consenso artificial — a sensação de que determinada opinião domina o debate quando, na verdade, foi amplificada por redes coordenadas.
Como a manipulação digital acontece
Estudos conduzidos por instituições como o Stanford Internet Observatory e pela empresa de análise digital Graphika mostram que campanhas de influência online seguem um roteiro relativamente previsível.
Primeiro surge o conteúdo: uma frase de efeito, um vídeo curto, uma denúncia explosiva ou um meme político carregado de emoção. Você já percebeu como políticos usam suas falas no plenário da Câmara e do Senado brasileiros ou em CPMIs para afirmações bombásticas que não se sustentam na realidade? Elas são a base para as postagens nas redes sociais. Em seguida, uma rede de perfis — às vezes automatizados, às vezes apenas coordenados — passa a compartilhar o material simultaneamente.
Se o engajamento inicial cresce rápido, os próprios algoritmos das plataformas passam a amplificar o conteúdo. O resultado é uma explosão de visibilidade que parece espontânea, mas muitas vezes começou em um pequeno núcleo organizado.
É assim que determinados temas surgem aparentemente “do nada” e dominam as redes em poucas horas. Lembra da mentira sobre a taxação do PIX feita pelo deputado Nicolas Ferreira?
Os sinais de que algo pode estar errado
Pesquisadores e jornalistas investigativos aprenderam a reconhecer alguns padrões que costumam aparecer em campanhas coordenadas.
Um deles é a sincronização quase perfeita de postagens: dezenas ou centenas de perfis publicando o mesmo conteúdo no mesmo intervalo de minutos. Outro é a formação de redes fechadas de interação — grupos de contas que curtem, comentam e compartilham quase exclusivamente entre si.
Também chama atenção a atividade ininterrupta de certos perfis, que parecem funcionar vinte e quatro horas por dia. E há ainda a repetição de narrativas quase idênticas, com pequenas variações de palavras, como se vários usuários diferentes estivessem lendo o mesmo roteiro.
Nos últimos anos, pesquisadores passaram a observar também rastros linguísticos deixados por inteligência artificial. Textos excessivamente organizados, gramática perfeita e argumentos estruturados em listas aparecem com frequência em mensagens geradas por sistemas automáticos.
Nenhum desses sinais, isoladamente, prova manipulação. Mas quando aparecem juntos, levantam um alerta.
O laboratório global da desinformação
O mundo já viu exemplos concretos de manipulação digital.
Um dos casos mais famosos envolveu a empresa britânica Cambridge Analytica, que utilizou dados de milhões de usuários do Facebook para direcionar propaganda política altamente personalizada.
Outro episódio investigado foi a atuação da Internet Research Agency, que operou milhares de contas falsas nas redes sociais com o objetivo de amplificar debates polarizadores nos Estados Unidos.
Esses exemplos demonstram que a manipulação digital não é uma hipótese acadêmica — ela já aconteceu e continua evoluindo.
O fator humano: quando a manipulação encontra um público disposto
Mas talvez o elemento mais complexo dessa equação não seja tecnológico. Seja humano.
Campanhas de desinformação raramente funcionam apenas porque alguém as produz. Elas prosperam quando encontram comunidades dispostas a acreditar e compartilhar determinadas narrativas.
No Brasil contemporâneo, analistas observam que parte do eleitorado conservador — especialmente setores mais radicalizados — não apenas consome conteúdos polarizadores como frequentemente participa ativamente da sua disseminação.
Isso acontece por diversas razões: identidade política forte, sensação de pertencimento a um grupo e desconfiança profunda das instituições tradicionais, Veja a campanha contra o STF patrocinada pela imprensa.
Nesse ambiente, fatos objetivos muitas vezes têm menos peso do que narrativas que reforçam crenças pré-existentes.
O “efeito teflon” da política contemporânea
Há ainda outro fenômeno curioso que cientistas políticos chamam de “efeito teflon”.
Assim como a superfície de uma panela antiaderente, certas lideranças políticas parecem imunes a críticas ou escândalos. Acusações que poderiam destruir carreiras políticas simplesmente não “grudam”.
Esse tipo de relação entre líder e seguidores não é novo na história, mas ganhou força em ambientes digitais altamente polarizados.
No Brasil, o fenômeno ficou particularmente visível durante a ascensão do bolsonarismo. Lideranças carismáticas passaram a ser tratadas por parte de seus apoiadores quase como figuras messiânicas.
A expansão de igrejas neopentecostais — especialmente em cidades pequenas do interior ou através dos púlpitos eletrônicos — também contribuiu para criar comunidades políticas fortemente coesas, onde autoridade religiosa, identidade cultural e posicionamento político se misturam.
Quando esse tipo de estrutura encontra redes sociais e algoritmos de engajamento, o resultado pode ser explosivo.
A disputa digital rumo a 2026
Com as eleições presidenciais de 2026 se aproximando, especialistas acreditam que o Brasil poderá viver uma das campanhas digitais mais intensas de sua história. E se revelar como o laboratório ideal para a verificação in loco das teorias de manipulação em larga escala.
Diversas figuras políticas com forte presença nas redes sociais devem desempenhar papel central nesse cenário.
Entre elas estão nomes ligados ao campo conservador e bolsonarista, como o estrategista político de Trump Steve Bannon (um dos conselheiros mais próximos ao Bolsonarismo), o ex-deputado Eduardo Bolsonaro, o comentarista político Paulo Figueiredo e o deputado Nikolas Ferreira. Todos possuem grande capacidade de mobilização digital, enorme alcance nas redes, além de financiamento internacional pesado.
Não há evidência pública de que estejam operando redes automatizadas como as descritas no estudo da Science. Mas é inegável que isso não pode ser descartado e que a disputa política contemporânea acontece cada vez mais no território digital, onde ferramentas de amplificação e inteligência artificial podem influenciar a percepção pública.
Democracia em tempos de algoritmos
O alerta dos pesquisadores não é alarmismo tecnológico. É um convite à vigilância democrática.
A internet abriu espaço para novas formas de participação política, mas também criou um ecossistema onde emoções fortes, desinformação e manipulação algorítmica podem prosperar.
Em meio a essa tempestade informacional, o papel do cidadão torna-se fundamental. Antes de compartilhar um conteúdo viral, vale sempre perguntar:
De onde veio essa informação?
Quem ganha com a sua disseminação?
E será que aquela avalanche de comentários é realmente espontânea?
Talvez essas sejam as perguntas mais importantes da política contemporânea.
Porque, na era da inteligência artificial, a batalha pela democracia também passa pelo botão “compartilhar”.
