Pentágono investiga se erro de IA causou ataque a escola no Irã que matou dezenas.

As forças armadas dos EUA implantaram inteligência artificial em uma escala sem precedentes em sua guerra conjunta com Israel contra o Irã, usando sistemas alimentados por IA para identificar, priorizar e coordenar ataques a mais de 1.000 alvos nas primeiras 24 horas de operações que começaram em 28 de fevereiro. Mas um ataque de míssil a uma escola feminina naquele dia, que matou dezenas de estudantes, colocou o papel da IA na guerra sob um holofote implacável.
IA no Centro da Seleção de Alvos
No centro da operação está o Maven Smart System, desenvolvido pela Palantir Technologies, que integra o modelo de IA generativa Claude da Anthropic para processar inteligência de satélites e sistemas de vigilância em tempo real. Segundo o The Washington Post, o sistema propôs centenas de alvos, classificou-os por importância estratégica e forneceu coordenadas precisas — possibilitando um ritmo de ataques que superou a capacidade de resposta do Irã. A Bloomberg informou que o Claude continua sendo central para as operações de seleção de alvos em tempo real do Maven.
O sistema permitiu que um pequeno número de pessoas gerenciasse cargas de trabalho que antes exigiam equipes muito maiores. Em maio de 2025, mais de 20.000 militares dos EUA já estavam usando a plataforma Maven, segundo reportagens, e os comandantes haviam se tornado profundamente dependentes dela para processar grandes quantidades de dados classificados.
Ataque a escola gera alarme
No primeiro dia de ataques, um míssil atingiu a escola feminina Shajareh Tayyebeh em Minab, na província de Hormozgan, no Irã. A mídia estatal iraniana informou que mais de 150 pessoas foram mortas, muitas delas estudantes, embora o número não tenha sido verificado de forma independente. Imagens de satélite analisadas pela NPR e CBC News mostraram que a destruição se estendeu além da escola até uma clínica próxima.
Investigadores do Pentágono acreditam que o ataque provavelmente resultou de inteligência falha gerada por IA, de acordo com um relatório citando fontes dentro do Departamento de Defesa. Um complexo próximo à escola havia sido previamente associado ao Corpo da Guarda Revolucionária Islâmica, e os investigadores suspeitam que o sistema tenha se baseado em dados arquivados desatualizados. O Secretário de Defesa Pete Hegseth disse que os militares “nunca têm como alvo civis” e que o assunto está sendo investigado.
O bombardeio da escola intensificou preocupações antigas sobre o direcionamento autônomo de alvos. Peter Asaro, vice-presidente da campanha Stop Killer Robots, disse ao Japan Times que a IA pode “produzir rapidamente longas listas de alvos muito mais rápido do que humanos”, mas questionou se os revisores humanos estão realmente examinando cada um deles. Brianna Rosen, pesquisadora sênior da Universidade de Oxford e Just Security, alertou que “mesmo com um humano totalmente no controle, há danos civis significativos porque as revisões humanas das decisões da máquina são essencialmente superficiais”.
Especialistas em direitos humanos da ONU condenaram o ataque à escola e pediram uma investigação independente. A controvérsia surge em meio a um conflito existente entre a Anthropic e o Pentágono sobre a pressão da empresa por proteções que impeçam o direcionamento totalmente autônomo de alvos — uma disputa que antecedeu a guerra, mas que foi superada pelos acontecimentos no terreno.
#irã #escola #pentágono







