
Foto-ilustração: Equipe da WIRED; Getty Images
https://www.wired.com/story/ai-powered-disinformation-swarms-are-coming-for-democracy
22 jan 2026
[Nota do Website: Ponderações imprescindíveis quando se toma conhecimento quem são os grandes donos das Big Techs. Os materiais que temos acesso sobre os comportamentos, as visões de mundo e as ações desses senhores, o mínimo que deveríamos ficar era temerosos e sinceramente preocupados sobre o que eles serão capazes de fazer com nossas vidas em suas mãos!].
Os avanços na inteligência artificial estão criando a tempestade perfeita para aqueles que buscam disseminar desinformação em uma velocidade e escala sem precedentes. E é praticamente impossível detectar.
Em 2016, diariamente, centenas de milhares de russos entravam em um moderno prédio de escritórios na Rua Savushkina, 55, em São Petersburgo; eles faziam parte da agora infame fábrica de trolls conhecida como Agência de Pesquisa da Internet/IRA-Internet Research Agency. Dia e noite, sete dias por semana, esses funcionários comentavam manualmente artigos de notícias, publicavam no Facebook e no Twitter e, de modo geral, buscavam incitar os estadunidenses sobre a então iminente eleição presidencial.
Quando o esquema foi finalmente descoberto, houve ampla cobertura da mídia e audiências no Senado, e as plataformas de mídia social fizeram mudanças na forma como verificavam os usuários. Mas, na realidade, apesar de todo o dinheiro e recursos investidos na IRA, o impacto foi mínimo — certamente em comparação com o de outra campanha ligada à Rússia, que viu os e-mails de Hillary Clinton vazarem pouco antes da eleição.
Uma década depois, embora a IRA não exista mais, as campanhas de desinformação continuaram a evoluir, incluindo o uso de tecnologia de IA para criar sites falsos e vídeos deepfake. Um novo artigo, publicado na revista Science na quinta-feira, prevê uma mudança radical iminente na forma como as campanhas de desinformação serão conduzidas. Em vez de centenas de funcionários trabalhando em escritórios em São Petersburgo, o artigo propõe que uma única pessoa com acesso às ferramentas de IA mais recentes poderá comandar “enxames” de milhares de contas de mídia social, capazes não apenas de criar postagens exclusivas indistinguíveis de conteúdo humano, mas também de evoluir de forma independente e em tempo real — tudo isso sem supervisão humana constante.
Os pesquisadores acreditam que esses enxames de IA podem provocar mudanças de perspectiva em toda a sociedade, que não apenas influenciarão as eleições, mas, em última instância, levarão ao fim da democracia — a menos que medidas sejam tomadas agora para evitar isso.
“Os avanços na inteligência artificial oferecem a perspectiva de manipular crenças e comportamentos em nível populacional”, afirma o relatório. “Ao imitar de forma adaptativa a dinâmica social humana, eles ameaçam a democracia.”
O artigo foi escrito por 22 especialistas de todo o mundo, provenientes de áreas como ciência da computação, inteligência artificial e segurança cibernética, bem como psicologia, ciência social computacional, jornalismo e políticas governamentais.
A visão pessimista sobre como a tecnologia de IA mudará o ambiente da informação é compartilhada por outros especialistas da área que analisaram o artigo.
“Atacar indivíduos ou comunidades específicas será muito mais fácil e eficaz”, afirma Lukasz Olejnik, pesquisador sênior visitante do Departamento de Estudos de Guerra do King’s College London e autor de Propaganda: Da Desinformação e Influência às Operações e à Guerra da Informação . “Este é um ambiente extremamente desafiador para uma sociedade democrática. Estamos em grandes apuros.”
Mesmo aqueles que são otimistas quanto ao potencial da IA para ajudar os humanos acreditam que o artigo destaca uma ameaça que precisa ser levada a sério.
“As campanhas de influência habilitadas por IA certamente estão dentro do atual estado de avanço da tecnologia e, como o artigo demonstra, isso também representa uma complexidade significativa para as medidas de governança e resposta de defesa”, afirma Barry O’Sullivan, professor da Escola de Ciência da Computação e TI da University College Cork.
Nos últimos meses, enquanto as empresas de IA buscam provar que valem as centenas de bilhões de dólares investidos nelas, muitos apontaram para a mais recente geração de agentes de IA como prova de que a tecnologia finalmente corresponderá às expectativas. Mas essa mesma tecnologia poderá em breve ser usada, argumentam os autores, para disseminar desinformação e propaganda em uma escala nunca antes vista.
Os enxames descritos pelos autores seriam compostos por agentes controlados por IA capazes de manter identidades persistentes e, crucialmente, memória, permitindo a simulação de identidades online verossímeis. Os agentes se coordenariam para alcançar objetivos comuns, enquanto simultaneamente criariam personas e comportamentos individuais para evitar a detecção. Esses sistemas também seriam capazes de se adaptar em tempo real para responder a sinais compartilhados pelas plataformas de mídia social e em conversas com humanos reais.
“Estamos entrando em uma nova fase da guerra da informação nas plataformas de mídia social, onde os avanços tecnológicos tornaram a abordagem clássica de bots obsoleta”, afirma Jonas Kunst, professor de comunicação da BI Norwegian Business School e um dos coautores do relatório.
Para os especialistas que passaram anos rastreando e combatendo campanhas de desinformação, o artigo apresenta um futuro aterrador.
“E se a IA não estivesse apenas alucinando informações, mas milhares de chatbots de IA estivessem trabalhando juntos para dar a aparência de apoio popular onde não existe nenhum? Esse é o futuro que este artigo imagina: fazendas de trolls russas turbinadas”, diz Nina Jankowicz, ex-czarina da desinformação do governo Biden e atual CEO do American Sunlight Project.
Os pesquisadores afirmam que não está claro se essa tática já está sendo usada, pois os sistemas atuais para rastrear e identificar comportamentos inautênticos coordenados não são capazes de detectá-los.
“Devido às suas características difíceis de imitar humanos, é muito difícil detectá-los e avaliar em que medida estão presentes”, diz Kunst. “Não temos acesso à maioria das plataformas [de redes sociais] porque elas se tornaram cada vez mais restritivas, então é difícil obter informações por lá. Tecnicamente, é definitivamente possível. Temos quase certeza de que isso está sendo testado.”
Kunst acrescentou que esses sistemas provavelmente ainda terão alguma supervisão humana durante o desenvolvimento e prevê que, embora possam não ter um impacto significativo nas eleições de meio de mandato dos EUA em novembro de 2026, muito provavelmente serão usados para interferir nas eleições presidenciais de 2028 (nt.: nos EUA).
Contas indistinguíveis de humanos em plataformas de mídia social são apenas um dos problemas. Além disso, a capacidade de mapear redes sociais em larga escala permitirá, segundo os pesquisadores, que aqueles que coordenam campanhas de desinformação direcionem agentes a comunidades específicas, garantindo o maior impacto possível.
“Equipados com tais capacidades, os enxames podem se posicionar para causar o máximo impacto e adaptar as mensagens às crenças e aos sinais culturais de cada comunidade, permitindo uma segmentação mais precisa do que a das botnets anteriores”, escrevem eles.
Esses sistemas poderiam ser essencialmente autoaperfeiçoáveis, usando as respostas às suas postagens como feedback para aprimorar o raciocínio e, assim, transmitir uma mensagem melhor. “Com sinais suficientes, eles podem executar milhões de microtestes A/B, propagar as variantes vencedoras na velocidade da máquina e iterar muito mais rápido do que os humanos”, escrevem os pesquisadores.
Para combater a ameaça representada pelos enxames de IA, os pesquisadores sugerem a criação de um “Observatório de Influência da IA”, composto por pessoas de grupos acadêmicos e organizações não governamentais que trabalhariam para “padronizar evidências, melhorar a consciência situacional e permitir uma resposta coletiva mais rápida, em vez de impor penalidades reputacionais de cima para baixo”.
Um grupo que não foi incluído é o dos executivos das próprias plataformas de mídia social, principalmente porque os pesquisadores acreditam que suas empresas incentivam o engajamento acima de tudo e, portanto, têm pouco incentivo para identificar esses enxames.
“Digamos que os enxames de IA se tornem tão frequentes que você não possa confiar em ninguém e as pessoas abandonem a plataforma”, diz Kunst. “É claro que isso ameaça o modelo. Se eles simplesmente aumentarem o engajamento, para uma plataforma é melhor não revelar isso, porque parece que há mais engajamento, mais anúncios sendo vistos, o que seria positivo para a avaliação de determinada empresa.”
Além da falta de ação por parte das plataformas, especialistas acreditam que há poucos incentivos para que os governos se envolvam. “O atual cenário geopolítico pode não ser favorável para ‘Observatórios’ que essencialmente monitoram discussões online”, afirma Olejnik. Jankowicz concorda: “O que mais assusta nesse futuro é a falta de vontade política para lidar com os danos causados pela IA, o que significa que [enxames de IA] podem em breve se tornar realidade.”
Tradução livre, parcial, de Luiz Jacques Saldanha, janeiro de 2026