
Ilustração de Doug Chayka para a Foreign Policy.
https://foreignpolicy.com/2026/03/24/ai-artificial-intelligence-doomsday-iran-war
24 mar 2026
[Nota do Website: Longa e fundamental reflexão sobre as ‘nuvens negras’ que pairam sob toda a parafernália da IA. Texto que deve ser lido por todos para que não sejamos encantados com o canto falacioso das sereias do mundo da IA. O autor que não é contrário à tecnologia, analisa o que está pairando entre os magnatas e imperadores das corporações da IA, destacando a visão de mundo dos EUA com suas aberrantes pretensões de serem os guias e faróis da humanidade].
O que acontece quando o castelo de cartas desmorona?
Durante um curto mês, a última semana de fevereiro foi repleta de eventos que certamente ficarão marcados em nossas memórias. Não se tratava apenas da guerra entre os Estados Unidos e Israel contra o Irã; por trás da fúria que se desenrolava no Oriente Médio, havia uma semana significativa para a Inteligência Artificial, com efeitos que serão sentidos por toda a humanidade. Vejamos alguns exemplos:
Além do arsenal bélico usual — mísseis de cruzeiro, navios de guerra, bombardeiros furtivos B-2, sistemas de foguetes de artilharia de alta mobilidade, drones — o Comando Central dos EUA teria utilizado o sistema Claude nas operações no Irã para avaliações de inteligência, identificação de alvos e simulações de batalha. O uso de IA oferece pistas sobre como as forças americanas e israelenses conseguiram decapitar a liderança iraniana com uma rapidez impressionante, embora não tenha garantido a precisão do ataque. Um ataque colateral à escola primária feminina Shajarah Tayyebeh, no sul do Irã, matou 175 pessoas, a maioria provavelmente crianças, segundo as autoridades iranianas.
Entretanto, a Anthropic, criadora do Claude (nt.: destaque em negrito dado pela tradução para não se esquecer quando se tratar objetivamente, em outra publicação, dessa corporação), foi expulsa do Pentágono por se recusar a permitir que seus modelos fossem usados para alimentar armas autônomas e vigilância em massa. Ela foi substituída por sua rival, a OpenAI, que promete mecanismos de controle, mas não oferece nenhuma evidência de que eles existam.
Em outro contexto, em 26 de fevereiro, um dos luminares da tecnologia mais acompanhados, Jack Dorsey, anunciou a demissão de 40% dos funcionários de sua empresa, a Block, alegando que a IA poderia assumir o trabalho; o mercado de ações reagiu positivamente. Apenas quatro dias antes desse anúncio, uma especulação financeira da Citrini Research pintou um cenário de deslocamento generalizado de empregos induzido por IA em 2028, causando prosperidade para alguns e declínio social generalizado. O índice Dow Jones reagiu com uma queda de mais de 800 pontos. Na mesma semana, as ações do setor de software se recuperaram após perderem US$ 1 trilhão em valor no início de fevereiro, com os investidores temendo que o código gerado por IA pudesse realizar o trabalho dessas empresas.
Esses acontecimentos ocorreram logo após uma publicação viral que alertava para o avanço da IA, mais rápido do que a maioria dos usuários imagina. Contudo, fevereiro também terminou com notícias de cancelamentos na construção de data centers nos Estados Unidos, em parte devido à ampla resistência da comunidade. E considerando a nova fragilidade regional, as promessas feitas pela Arábia Saudita, Catar e Emirados Árabes Unidos de estabelecer um polo de infraestrutura de IA estão agora em xeque.
A guerra contra o Irã também teve outros efeitos em cadeia. Os semicondutores dos quais a indústria de IA depende precisam de suprimentos críticos de hélio e enxofre que passam pelo Estreito de Ormuz, que agora está praticamente intransitável.
Essas não são histórias isoladas. São facetas de um único fenômeno: uma convergência de riscos tecnológicos, econômicos, geopolíticos e institucionais que se intensificaram recentemente, sugerindo que estamos caminhando a passos largos para um “apocalipse da IA”; ou seja, uma situação em que, apesar de seus muitos benefícios, a tecnologia pode piorar significativamente a sociedade como um todo. Isso não se deve a uma única força, como ameaças existenciais, devastação de empregos ou o uso autônomo de armas. Há, em vez disso, um sistema de forças interconectadas relacionadas à IA que contribuem para problemas descontrolados, aliado à coordenação institucional inadequada e à falta de liderança com a visão necessária para antecipar os problemas antes que se agravem.
Por mais de 35 anos, tenho estudado e trabalhado no impacto da IA e das tecnologias digitais por meio de pesquisa e desenvolvimento de alta tecnologia; assessorando líderes da indústria de tecnologia; e liderando o Digital Planet, um centro de pesquisa sobre a economia digital global, por 15 anos. Permitam-me também declarar que sou um entusiasta da IA desde 1991, durante o segundo “inverno da IA”, quando a tecnologia estava longe de ser atraente.
Minha própria experiência e pesquisa ao longo dos anos sugerem que a tecnologia pode ser transformadora em uma ampla gama de áreas. Como pesquisador, vivencio o poder das ferramentas de IA e compreendo suas desvantagens, bem como as soluções potenciais .
No entanto, agora atribuo uma alta probabilidade a um apocalipse da IA. Permitam-me enumerar os sete cavaleiros de um possível apocalipse da IA.
Deslocamento de empregos
Nosso novo estudo da Digital Planet, “As regiões industrializadas se tornarão as novas regiões industriais decadentes?”, analisa o impacto da IA em 784 ocupações em todos os principais setores da indústria americana e os efeitos econômicos em diversas localidades do país. Constatamos que cada ponto percentual de automação de empregos será acompanhado por uma perda de 0,75 ponto percentual de empregos. Os trabalhadores cujas tarefas são mais aprimoradas pela IA também são os mais propensos a serem substituídos por ela. Em menos de cinco anos, os Estados Unidos podem perder o equivalente à economia da Bélgica devido ao deslocamento de empregos causado pela IA, e até o equivalente à economia da Coreia do Sul se a adoção da IA ocorrer mais rapidamente. Grandes polos de emprego, como a região metropolitana de Washington, D.C., São Francisco e a região de Boston, serão os mais afetados; 40% das perdas de empregos ocorrerão na Califórnia, Texas, Nova York, Flórida e Illinois. Isso sugere a chegada iminente de uma nova pausa de Engels, o período durante os estágios iniciais da Revolução Industrial em que os salários da classe trabalhadora estagnaram enquanto a produtividade industrial aumentava, causando extrema desigualdade de renda, com consequências sociais e políticas.
Crise Epistêmica
De acordo com o instituto de pesquisa Model Evaluation and Threat Research, a IA tem se tornado duas vezes melhor a cada sete meses. No entanto, existem várias maneiras pelas quais ela pode se degradar a partir de agora. Uma delas é a escassez de dados. Um estudo de 2024 sugeriu que o fornecimento de novos textos gerados por humanos, adequados para treinamento, poderia se esgotar até 2032, deixando poucas opções além da IA gerar os dados para seu próprio treinamento. Quando os modelos são treinados repetidamente com essas entradas sintéticas, a degradação da saída é inevitável, levando ao que é conhecido como “colapso do modelo“.
Na verdade, mais de 90% de todo o conteúdo da web pode já ser gerado por IA. A proliferação de conteúdo de baixa qualidade produzido por IA (grandes volumes de conteúdo de baixa qualidade) e desinformação — já amplificada durante eleições, conflitos e outras transições sociopolíticas críticas — degrada os insumos.
Uma terceira causa para a iminente crise epistêmica tem a ver com os próprios usuários. Os usuários perdem a capacidade de distinguir conteúdo real de conteúdo gerado por IA e param de tentar; a dependência persistente da IA pode degradar as habilidades de estudantes e profissionais de diversas áreas, desde programadores a médicos e funcionários de diferentes setores. Nenhum aumento de produtividade pode compensar as habilidades cognitivas perdidas devido à dependência excessiva da IA.
Gargalos de infraestrutura
Uma grande maquete de um centro de dados está rodeada por homens e mulheres com turbantes e lenços na cabeça. Visitantes observam uma maquete do que se espera ser o maior centro de dados dos Emirados Árabes Unidos quando a construção estiver concluída, em Abu Dhabi, em 3 de novembro de 2025. Giuseppe Cacae/AFP via Getty Images
Os avanços da IA precisam ser acompanhados por infraestrutura de suporte, especialmente no setor energético. Os data centers serão responsáveis por cerca de metade do crescimento da demanda de energia nos EUA no restante desta década, segundo a Agência Internacional de Energia. A agência também alerta para possíveis atrasos na construção de 20% dos data centers planejados. As guerras no Oriente Médio estão exacerbando a crise energética. Mesmo com as empresas de IA se comprometendo a arcar com os custos crescentes de energia, seus esforços podem não aliviar a pressão em tempo hábil, já que fontes de energia solar e eólica, de construção mais rápida, foram rejeitadas pelo governo Trump.
Uma segunda deficiência infraestrutural é menos tangível. Os Estados Unidos e as democracias ocidentais enfrentam um déficit de confiança pública na IA. Combater isso exige investimento em uma infraestrutura de confiança, incluindo avaliações objetivas de sistemas de IA, segurança, explicabilidade, testes de governança e gestão preventiva dos riscos mais imediatos, especialmente a perda de empregos. Por ora, essa infraestrutura é extremamente precária e a confiança está em queda.
Guerras, frias e quentes
A guerra fria da IA entre os Estados Unidos e a China é uma rivalidade multidimensional que abrange cadeias de suprimentos de chips, redes de energia, redes militares sigilosas e modelos de IA concorrentes. Embora os Estados Unidos liderem em poder computacional — seus 39,7 milhões de petaflops (que medem cálculos computacionais por segundo) superam os 400.000 petaflops da China —, a China possui vantagens distintas que intensificam a rivalidade. O domínio da China na indústria manufatureira, sua capacidade de coordenar recursos estatais e sua infraestrutura energética são ativos poderosos. Sua margem de reserva energética de 80 a 100%, em comparação com os 15% dos Estados Unidos, pode ser decisiva. A China lidera em IA de código aberto e seus cidadãos confiam mais na IA.
Ao contrário da Guerra Fria anterior, esta resultou em poucos avanços científicos significativos; a inovação chinesa, ainda que frugal, no desenvolvimento de modelos de IA de ponta sem o uso de chips de ponta é uma rara exceção. Há uma crescente fragmentação do ecossistema de IA, juntamente com suspeitas mútuas devido ao roubo persistente de propriedade intelectual, sabotagem digital e ausência de estruturas e padrões uniformes. A rivalidade também torna mais prováveis os ataques automatizados a redes elétricas ou centros de dados. Além das superpotências, atores mais fracos podem impor custos desproporcionais usando ataques assistidos por IA e perpetuar conflitos ao reduzir o poder de dissuasão da superioridade militar. A guerra com o Irã já anunciou uma nova era de guerras impulsionadas por IA e manipulação de narrativas. Enquanto isso, os esforços internacionais para regulamentar a militarização da IA estão atrasados em relação ao ritmo de sua implementação.
Instituições Ausentes
Um rosto prateado é visto de perfil em frente ao logotipo da Anthropic, repetido seis vezes ao fundo em letras maiúsculas pretas sobre um fundo branco. Uma figura em frente ao logotipo da empresa de inteligência artificial Anthropic durante uma sessão de fotos em Paris, em 13 de fevereiro. Joel Saget/AFP via Getty Images
Como mencionado anteriormente, a infraestrutura de confiança é crucial, mas requer salvaguardas institucionais facilitadas por recursos, visão e coragem política. Infelizmente, tais sistemas têm sido vistos como obstáculos na corrida da IA, especialmente nos Estados Unidos. O governo Trump não apenas abandonou os planos de regulamentação da IA, como também desencorajou ativamente as empresas de incorporarem salvaguardas em seus sistemas; basta observar a classificação da Anthropic como um “risco para a cadeia de suprimentos” por insistir em salvaguardas. Essa negligência da supervisão de segurança por parte da líder global em IA estabelece um precedente para outras nações, criando as condições para uma espiral descendente catastrófica.
Mercados voláteis
Em um fundo roxo, Modi e Altman unem as mãos acima da cabeça, enquanto Amodei ergue os punhos ao lado de Altman, mas não junta as mãos com ele. A outra mão de Amodei está sendo segurada por alguém fora do enquadramento. O primeiro-ministro indiano, Narendra Modi, posa para uma foto em grupo com líderes de empresas de inteligência artificial, incluindo o CEO da OpenAI, Sam Altman (ao centro), e o CEO da Anthropic, Dario Amodei (à direita), na Cúpula de Impacto da IA em Nova Delhi, em 19 de fevereiro. Ludovic Marin/AFP via Getty Images
O mercado de ações está fazendo previsões sobre o futuro da IA, oscilando e se recuperando com base nos sinais mais tênues: de posts virais no LinkedIn a artigos crédulos sobre os modelos mais recentes, passando por especulações sobre um “PIB fantasma”. Em vez de líderes confiáveis e firmes, temos profetas da IA em duelo, Sam Altman e Dario Amodei, que sequer se deram as mãos durante uma sessão de fotos na Cúpula de Impacto da IA na Índia; um governo americano errático incentivando o setor; e mercados de ações voláteis. Somado a uma tecnologia em rápida evolução, isso não augura nada de bom para a gestão das transições tecnológicas. Países já enfrentam as consequências descontroladas da desigualdade de renda, do deslocamento de empregos e da ascensão de políticas antidemocráticas; a transição para a IA se torna um multiplicador das tensões existentes.
A Convergência
Nenhum desses riscos existe isoladamente. Uma escalada militar da IA mina os esforços para construir salvaguardas institucionais e pode também desencadear uma crise energética, à medida que as nações buscam a soberania da IA. Isso, por sua vez, reforça a fragmentação global, tornando a governança da IA impossível justamente quando a infraestrutura de confiança é mais necessária. Enquanto Wall Street recompensa os CEOs que demitiram funcionários e faz com que aqueles que não o fizeram temam sua mão invisível, o número de demissões aumenta. A consequente exacerbação das desigualdades sociais gera uma nova geração de grupos políticos hostis, compostos principalmente por profissionais de classe média alta, armados com ferramentas e redes de ativismo que seus antecessores da classe trabalhadora não possuíam. Para piorar a situação, a aceleração da IA é financiada por mercados que oscilam violentamente com base na especulação, governados por administrações que se contradizem semanalmente e debatidos em um ambiente informacional que a própria IA está degradando. A guerra fria da IA não só impede a coordenação internacional nessas frentes, como também alimenta o mito de que os controles de governança levariam à derrota nessa corrida. Cada força cria condições que agravam as outras, produzindo uma cascata de reforço mútuo.
Em vez de traçarmos paralelos tecnológicos automáticos com a Revolução Industrial ou a eletrificação, a IA deve ser considerada em conjunto com as armas nucleares — com riscos sistêmicos análogos, necessidade de coordenação, anos iniciais marcados por política de risco, especulação de mercado e inadequação institucional. Foi preciso a crise dos mísseis de Cuba para produzir as estruturas de dissuasão e equilíbrio nuclear. Em vez de esperarmos por um quase-acidente com IA, devemos estudar preventivamente as lições da história nuclear.
Certamente podemos nos beneficiar de capacidades ainda melhores em modelos de IA; no entanto, o momento atual exige uma mudança de prioridades para a construção de arquiteturas de confiança, estruturas de governança e mecanismos de coordenação. Investimos mais de US$ 1 trilhão na construção da Ferrari. Negligenciamos as estradas. A permanência dessa janela de oportunidade depende das escolhas que estão sendo feitas agora em conselhos de administração, legislaturas e até mesmo em cúpulas de IA, onde as pessoas responsáveis por uma das tecnologias mais poderosas da história sequer conseguem concordar em dar as mãos.
Tradução livre, parcial, de Luiz Jacques Saldanha, abril de 2026