- Em 28 de fevereiro de 2026, forças americanas bombardearam a escola primária Shajareh Tayyebeh, em Minab, no Irã, atingindo o prédio pelo menos duas vezes na sessão matinal; entre 175 e 180 pessoas morreram, a maioria meninas entre sete e 12 anos.
- A ofensiva não foi causada por Claude, chatbot da Anthropic; o ataque mostrou falhas em atualização de intel e no sistema de “kill chain” usado para direcionamento de alvos, com Maven no centro do processo.
- Maven integra dados de várias fontes (imagens de satélite, sensores etc.) em uma interface única, reduzindo a intervenção humana e acelerando decisões: o objetivo é chegar a até 1.000 decisões de ataque por hora.
- A narrativa histórico-scritáfica aproxima o episódio de episódios de Vietnam e Iraque, destacando riscos de confiabilidade, validação de alvos e a distância entre a representação digital e a realidade no terreno.
- A reportagem defende que a pergunta real não é sobre Claude ou modelos de linguagem, mas sobre quem desenhou, autorizou e confiou no sistema de targeting — e a responsabilidade por decisões que resultaram na morte de civis.
O ataque ocorreu na manhã de 28 de fevereiro de 2026, quando forças americanas bombardearam a escola primária Shajareh Tayyebeh, em Minab, no sul do Irã. O alvo foi atingido pelo menos duas vezes durante a sessão matutina, segundo relatos. O balanço inicial aponta entre 175 e 180 mortos, na maioria meninas de 7 a 12 anos.
A operação, batizada de Epic Fury, foi conduzida com base em um sistema de alvos conhecido como Maven. A discussão pública inicial tratou mais da participação de uma ferramenta de IA de consumo público do que do funcionamento real do sistema de alvos, que envolve dados de satélite, sinais de inteligência e sensores.
Maven, Palantir e o processo de targeting
O Maven funciona como uma infraestrutura de alvos que consolida várias fontes de dados e reduz o tempo entre detecção e decisão de ataque. No ciclo de alvos, as informações passam por várias colunas que representam etapas até a execução, com sugestões de ações. O uso envolve equipes militares que ainda mantêm a decisão humana sobre o ataque.
A plataforma foi desenvolvida a partir de exercícios militares iniciados em 2020, com participação de Palantir e outros contratados. O objetivo declarado foi permitir que equipes menores gerassem um grande volume de decisões de alvos por hora, mantendo a supervisão humana na aprovação final.
Contexto histórico e críticas
Especialistas em história militar comparam esse tipo de sistema a esforços anteriores de acelerar a tomada de decisão, destacando riscos de erro sem inspeção suficiente da qualidade dos alvos. Ao longo de décadas, várias encarnações de sistemas de alvos mostraram que a velocidade pode amplificar falhas de avaliação.
A cobertura também analisa a relação entre tecnologia e burocracia militar, apontando como a automatização pode deslocar o peso da decisão para estruturas de software e fluxos de trabalho, potencialmente reduzindo a margem para questionamentos.
Consequências e perguntas
Após o ataque, surgiram perguntas sobre quem autorizou a ofensiva e se houve violação do direito internacional. A discussão sobre a responsabilidade pela morte de civis persiste, com foco nas decisões que levaram à operação e na atualização de bases de dados que classificaram instalações como militares.
A discussão pública enfatiza a necessidade de transparência sobre como sistemas de alvos operam e quais salvaguardas são aplicadas na prática. O episódio levanta dúvidas sobre o papel de IA e automação no planejamento de ações militares, sem oferecer respostas definitivas sobre responsabilidade ou conformidade.
Entre na conversa da comunidade