Pages

Máquinas na guerra

Do A Terra É Redonda, 8 de abril 2026
Por FERNANDO HORTA*


Imagem: Kate Gundareva

O que torna este momento diferente de qualquer anterior é que, pela primeira vez na história dos regimes de controle de armas, o ator que deve ser regulado são empresas – a Anthropic, a OpenAI, a Palantir, a Google

“Frontier AI systems are simply not reliable enough to power fully autonomous weapons. They cannot be relied upon to exercise the critical judgment that our highly trained, professional troops exhibit every day” (Dario Amodei, CEO da Anthropic, fevereiro de 2026).

“We must accept that the risks of not moving fast enough outweigh the risks of imperfect alignment” (US Department of Defense, AI Strategy Document, 2025).

O incidente que mudou tudo

Em 3 de janeiro de 2026, forças norte-americanas invadiram Caracas. Na noite anterior, os radares venezuelanos simplesmente apagaram. Nicolás Maduro foi capturado e transportado a Nova York sob acusações de narcoterrorismo, enquanto Washington negociava o controle sobre o petróleo venezuelano. O que não estava nos comunicados oficiais: um modelo de inteligência artificial de uma empresa de São Francisco havia sido empregado durante a missão ativa, não apenas em sua preparação.

Segundo reportagens do Wall Street Journal e confirmações do Axios, o Claude – sistema de IA da Anthropic – estava integrado às redes militares classificadas de Nível de Impacto 6 do Pentágono por meio de parceria com a Palantir Technologies. Era a primeira vez que um modelo de linguagem de grande escala de empresa comercial havia sido confirmado como ativo em operação militar classificada do Departamento de Defesa dos EUA.

O episódio deflagrou crise institucional de consequências históricas. A Anthropic, cujas diretrizes proíbem explicitamente a utilização do Claude para facilitar violência, entrou em conflito aberto com o Pentágono sobre os limites do contrato de 200 milhões de dólares assinado em julho de 2025. O Secretário da Guerra Pete Hegseth declarou que o Departamento não trabalharia com modelos que “não permitissem travar guerras”. Em 27 de fevereiro de 2026, Trump ordenou o banimento de todas as agências federais de usar produtos da Anthropic, designando a empresa como “risco de cadeia de suprimentos” – medida sem precedentes contra uma empresa norte-americana.

A questão que emerge não é corporativa nem contratual: é civilizatória. Pela primeira vez desde que as Convenções de Genebra foram codificadas, uma tecnologia surgiu capaz de comprimir o ciclo de decisão letal – o que os militares chamam de “kill chain” – a um ponto onde a supervisão humana significativa corre o risco de se tornar uma ficção jurídica. E diferente das armas químicas, biológicas ou nucleares, esta tecnologia não está contida em nenhum tratado específico, e seus principais desenvolvedores são empresas privadas sob pressão de mercado e de Estados que cada vez mais abandonam qualquer escrúpulo quanto ao seu uso.

2. A Convenção de Genebra: Uma História de Contenção da Bestialidade Humana

A Convenção de Genebra não nasceu do idealismo. Nasceu do horror. Em junho de 1859, o ativista suíço Henry Dunant testemunhou a Batalha de Solferino, onde aproximadamente 40.000 soldados morreram ou ficaram feridos em um único dia, agonizando sem qualquer assistência. Sua experiência resultou no livro “Uma Recordação de Solferino” (1862) e, dois anos depois, na Primeira Convenção de Genebra de 1864.

O que Dunant compreendeu é que a guerra não pode ser regulada em sua existência, mas pode ser regulada em seus métodos. A história do Direito Internacional Humanitário é a história de cada geração enfrentando a novidade tecnológica da violência com novos instrumentos de contenção: o Protocolo de Genebra de 1925 proibiu gás venenoso; o Tratado de Ottawa de 1997 proibiu as minas antipessoal; a Convenção sobre Munições em Submunições de 2008 estabeleceu proteções contra armamentos que causavam mortes civis décadas após os conflitos. Em todos esses casos, pressão moral e diplomática de atores menos poderosos forçou regimes vinculantes que, mesmo imperfeitos, reduzem o sofrimento humano. A questão que este texto coloca é: estamos no momento análogo para a inteligência artificial em contextos de guerra? A resposta é sim – e estamos perigosamente atrasados.

3. “Vale Tudo na Guerra”: O Argumento que Precisamos Enfrentar

Existe um argumento que ressurge sempre que se propõe regular o conflito armado: o de que na guerra, por sua natureza, vale tudo. Este argumento é ao mesmo tempo empiricamente falso e moralmente perigoso. É empiricamente falso porque regimes jurídicos de contenção, mesmo imperfeitos, reduzem o sofrimento humano: o banimento do gás mostarda tornou seu uso criminalizado e relativamente raro. É moralmente perigoso porque normaliza a supressão da distinção entre combatentes e civis, entre dano necessário e crueldade gratuita. A frase “vale tudo na guerra” é uma declaração de intenção que, quando absorvida como doutrina, produz Auschwitz, Hiroshima e My Lai.

O que a IA faz é radicalizar essa tensão. Seus defensores militares afirmam que sistemas de IA são mais precisos e reduzem a exposição de soldados. A realidade operacional demonstra o contrário: o sistema Maven Smart System, central à campanha norte-americana contra o Irã, opera com taxa de precisão de aproximadamente 60% – significativamente inferior aos 84% de analistas humanos. Quando a velocidade do kill chain se comprime de horas para segundos, o “humano no loop” torna-se rubrica jurídica, não salvaguarda real.

4. A IA Não Inventou a Violência – Ela a Amplifica

A IA não inventou o bombardeio de civis, a vigilância de populações inteiras, a identificação e eliminação de indivíduos com base em perfis de dados. O que a IA faz é amplificar dramaticamente a escala, a velocidade e o alcance dessas capacidades, ao mesmo tempo em que dilui a responsabilidade moral e jurídica por suas consequências.

Em Gaza, os sistemas israelenses Lavender e Gospel foram programados para aceitar até 100 mortes civis por ataque a um único suspeito de pertencer ao Hamas. Na Ucrânia, ambos os lados empregam IA para processar mais de 50.000 fluxos de vídeo por mês. O 18th Airborne Corps norte-americano reduziu uma equipe de 2.000 analistas a 20 usando IA para inteligência operacional.

A questão não é se a IA é moralmente boa ou má. É que ela opera como um amplificador de potência sem correspondente amplificação da sabedoria ou da responsabilidade. Quando Pete Hegseth afirma que o Departamento da Guerra não pode “comprometer-se por escrito a não usar IA para vigilância em massa” porque “precisamos estar preparados para o futuro”, ele expõe com clareza o núcleo do problema: a lógica da corrida armamentista absorve e anula qualquer freio ético antes que ele possa ser institucionalizado.

5. O Controle de Dados: A Grande e Talvez Única Superioridade Fática dos EUA

A IA muda estruturalmente a equação da superioridade militar. O elemento limitante não é o algoritmo – modelos sofisticados estão disponíveis globalmente. O elemento limitante é o dado. E os Estados Unidos controlam, de forma absolutamente sem precedente, os principais fluxos de dados digitais globais: as plataformas de comunicação (Google, Meta, Apple), os sistemas de pagamento, os satélites de observação comercial e as redes de nuvem (AWS, Azure, Google Cloud). O CENTCOM pode processar 1.000 alvos por dia com apenas 10% dos recursos humanos anteriores porque tem acesso a um ecossistema de dados que nenhum outro ator global pode replicar em velocidade ou escala comparável.

A invasão de Caracas é ilustrativa: a operação foi tecnologicamente assimétrica não porque os EUA tinham mais soldados, mas porque tinham mais dados – e ferramentas para processá-los em velocidade operacional. Isso cria um paradoxo geopolítico de primeira magnitude: a única superioridade fática realmente sustentável dos EUA no século XXI é informacional, não militar no sentido tradicional. Quando convertida em capacidade de eliminação autônoma, transforma os EUA em árbitro unilateral da vida e da morte em qualquer conflito – um tipo de soberania sobre a violência que nenhum sistema internacional consegue acomodar sem colapsar.

6. Os Casos Concretos: De Caracas ao Golfo Pérsico

Em 28 de fevereiro de 2026, EUA e Israel lançaram a Operação Epic Fury contra o Irã, o maior empreendimento militar norte-americano desde a invasão do Iraque em 2003. O CENTCOM confirmou o uso de “ferramentas avançadas de IA” para processar dados de campo em segundos. O núcleo tecnológico era o Maven Smart System, desenvolvido pela Palantir. Nas primeiras 24 horas, forças americanas atacaram mais de 1.000 alvos – um ritmo descrito pelos próprios militares como “sem precedentes”.

Entre esses alvos estava a escola de meninas Shajareh Tayyebeh em Minab, no sul do Irã. O ataque matou pelo menos 168 pessoas, a maioria crianças entre sete e doze anos. A escola constava de uma lista de alvos gerada com assistência de IA, ao lado de uma base das Guardas Revolucionárias no mesmo complexo. O Washington Post confirmou que a escola estava na lista de alvos norte-americana. A taxa de precisão do Maven estava em torno de 60%, e o ritmo de 1.000 alvos por dia com apenas 10% dos recursos humanos anteriores é matematicamente incompatível com supervisão humana real sobre cada decisão de engajamento.

7. BeiDou e a Resposta Tecnológica Sino-Iraniana

A assimetria tecnológica está sendo parcialmente compensada por uma aliança entre China e Irã cujas implicações ainda não foram completamente absorvidas pelas análises ocidentais. A guerra de doze dias de junho de 2025 expôs ao Irã que sua dependência do GPS americano criava uma vulnerabilidade fatal. Em meados de 2025, o Irã completou a transição de aplicações militares para o BeiDou – o sistema de navegação por satélite chinês, com precisão militar na faixa de menos de um metro de erro circular provável e capacidade de redirecionamento de drones e mísseis em voo a até 2.000 quilômetros em tempo real.

Analistas de defesa descreveram o arranjo como “olhos e punhos”: a China fornece a fase de Find, Fix e Track do kill chain iraniano por meio de suas constelações de satélites; o Irã entrega os punhos cinéticos com precisão crescente. O resultado é uma arquitetura de kill chain partilhada entre dois soberanos, que distribui responsabilidade e risco político ao mesmo tempo em que aumenta a eficácia operacional. A China também forneceu o radar YLC-8B, capaz de detectar o F-35 a distâncias de até 330 quilômetros, além de apoio em cibersegurança e monitoramento naval próximo ao Mar de Omã.

8. O Isolamento Europeu e a Incapacidade Latino-Americana

O conflito revela o isolamento tecnológico da Europa e a incapacidade da América Latina de participar desse debate. A Europa desenvolveu o discurso da soberania digital e da autonomia estratégica, mas sem traduzir esse discurso em infraestrutura: não existe um modelo de linguagem europeu com capacidade comparável ao Claude ou ao GPT-4. A OTAN adquiriu em 2025 uma versão do Maven Smart System – do mesmo Palantir –, o que significa que a infraestrutura de IA da aliança ocidental mais importante é americana, sujeita às decisões de empresas americanas e reconfigurável unilateralmente por Washington. A guerra do Irã expôs essa dependência: a Europa foi excluída das decisões operacionais e assistiu ao conflito expressando preocupação com baixas civis enquanto os sistemas que tornavam possível o ritmo de 1.000 alvos por dia eram operados por empresas que não reconhecem qualquer autoridade externa para limitar seu uso.

A situação da América Latina é de outra ordem: ausência quase total de capacidade no setor. Nenhum país latino-americano possui a infraestrutura computacional, os dados de treinamento ou o capital humano especializado para desenvolver modelos de IA com capacidade de defesa em escala relevante. O Brasil assinou, em setembro de 2025, a declaração conjunta do GGE da CCW que pede negociações vinculantes sobre sistemas de armas autônomas letais – um gesto político importante, mas insuficiente sem capacidade tecnológica ou peso negocial real. O que a América Latina pode e deve fazer é utilizar seu não-alinhamento ativo para liderar moralmente o processo regulatório, pela credibilidade diplomática dos não-alinhados e pela consciência de que é sobre os países sem superioridade tecnológica que as consequências da desregulação recairão com mais brutalidade.

9. Cinco Pontos para uma Nova Convenção: Em Direção a Caracas ou Teerã

As decisões de engajamento são hoje tomadas em velocidade de máquina, com base em algoritmos treinados em dados frequentemente enviesados, por sistemas que “recomendam” alvos com uma confiança estatística que operadores humanos pressionados pelo tempo tendem a aceitar sem revisão crítica. Isso não é ficção científica – é o que aconteceu em Minab.

A proposta que fazemos não é a de proibir a IA em contextos militares. É de estabelecer um regime regulatório vinculante, ancorado em princípios humanitários, que crie obrigações claras para Estados e, de forma inovadora, para empresas desenvolvedoras de sistemas de IA. Propomos chamá-lo de “Convenção de Caracas” ou “Convenção de Teerã” – nomes que lembrem, sem eufemismo, os casos que tornaram sua necessidade urgente. Os cinco pontos derivam das próprias posições da Anthropic no embate com o Pentágono – ironia histórica que merece ser sublinhada: a empresa que criou o primeiro modelo de IA confirmado em uso militar classificado é também a que articulou os princípios mais claros para limitar esse uso.

Primeiro ponto: a proibição de sistemas de armas totalmente autônomos. A Anthropic afirmou explicitamente que sistemas de IA de fronteira não são confiáveis o suficiente para operar armas totalmente autônomas e que não podem exercer o julgamento crítico que soldados profissionais exercem. Este princípio deve ser elevado à condição de norma vinculante de Direito Internacional Humanitário. A Convenção deve estabelecer que nenhum Estado pode delegar a decisão final de engajamento letal a um sistema algorítmico. O critério não é formal (“há um humano no loop”) mas substantivo (“o humano tem capacidade real de supervisão e discordância”).

Segundo ponto: a proibição de vigilância em massa de populações civis por IA. A Anthropic identificou este como um de seus “red lines” absolutos. O princípio deve ser universalizado: nenhuma IA pode ser empregada para construir perfis sistemáticos de populações civis com fins de controle, identificação ou targeting, incluindo o cruzamento de dados de redes sociais, comunicações privadas e movimentações geográficas para identificar “suspeitos” em escala algorítmica.

Terceiro ponto: responsabilidade das empresas desenvolvedoras. O modelo atual de regulação é exclusivamente focado nos Estados. Mas os casos de Caracas e do Irã demonstram que a linha entre empresa privada e instrumento de Estado é completamente porosa. A nova convenção deve estabelecer obrigações diretas para empresas que desenvolvem sistemas de IA com capacidade militar: avaliação obrigatória de risco humanitário antes de qualquer contrato com atores estatais; direito de auditoria sobre usos finais; responsabilidade civil e potencialmente criminal para executivos que permitam uso em violação de protocolos humanitários.

Quarto ponto: transparência algorítmica como requisito do Direito Internacional Humanitário. O artigo 36 do Protocolo Adicional I à Convenção de Genebra já exige que Estados realizem revisão jurídica de novos meios e métodos de guerra. Esse requisito deve ser expandido para IA: qualquer sistema empregado em funções de targeting deve passar por auditoria técnica independente que inclua avaliação de viés de treinamento, taxa de erro documentada e verificação de que os dados de treinamento não violam proteções humanitárias. A opacidade dos algoritmos não pode ser tratada como segredo comercial quando está determinando quem morre.

Quinto ponto: moratória sobre o uso de dados de civis em treinamento de sistemas militares de IA. Os modelos de IA militar são frequentemente treinados em dados de origem civil: padrões de comunicação, imagens de satélite de áreas populosas, redes sociais. Quando esses dados são usados para treinar sistemas de targeting, os civis que os geraram tornam-se involuntariamente co-autores de sua própria identificação como alvos potenciais – uma violação fundamental do princípio de distinção, pedra angular do Direito Internacional Humanitário. A nova convenção deve proibir o uso de dados de origem civil não-combatente em treinamento de sistemas de IA com funções militares letais.

10. Conclusão: A Janela que Está Se Fechando

Em novembro de 2025, a Assembleia Geral da ONU aprovou – com o apoio de 156 nações – uma resolução histórica convocando negociações para um acordo vinculante sobre sistemas de armas autônomas letais até a Sétima Conferência de Revisão da CCW, em 2026. Apenas cinco países votaram contra: Estados Unidos, Rússia, Índia, Israel e Austrália. O sinal é claro: a esmagadora maioria do mundo reconhece a urgência. A minoria que detém o poder tecnológico e militar relevante resiste.

Esse padrão é historicamente familiar. As grandes potências sempre resistiram às primeiras rodadas de negociação sobre novos regimes de armas. Mas a história mostra que regimes vinculantes são possíveis quando a pressão moral, científica e diplomática é suficientemente sustentada. A campanha de Dunant levou cinco anos da Batalha de Solferino à Primeira Convenção de Genebra; a proibição das armas químicas levou décadas do Protocolo de 1925 à Convenção de 1993. Não temos décadas para a IA militar: desenvolvimento tecnológico e integração operacional estão ambos em curva exponencial.

O que torna este momento diferente de qualquer anterior é que, pela primeira vez na história dos regimes de controle de armas, o ator que deve ser regulado não é exclusivamente estatal. São empresas – a Anthropic, a OpenAI, a Palantir, a Google – que desenvolvem as capacidades centrais. A ironia de Trump banir a Anthropic no mesmo dia em que iniciou a maior campanha de bombardeio assistido por IA da história não é uma contradição: é a exposição de que o Estado americano quis a IA sem os princípios, e que as empresas que tentaram manter os princípios foram punidas.

A “Convenção de Caracas” não deve ser entendida como iniciativa anti-americana ou ingenuidade humanitária. Deve ser entendida como o único caminho viável para evitar que a corrida armamentista em IA produza um mundo onde a velocidade algorítmica substitui completamente o juízo humano, onde populações civis são categorizadas e eliminadas por sistemas cujos erros são estruturalmente invisíveis, e onde a assimetria tecnológica entre o Norte e o Sul global se converte em assimetria de vida e morte sem qualquer mecanismo de responsabilização.

Henry Dunant, ao testemunhar Solferino, não propôs que os exércitos parassem de lutar. Propôs que, enquanto lutavam, respeitassem aqueles que não podiam se defender. É exatamente isso que está em jogo agora: não se a IA será usada na guerra – ela já está sendo usada – mas se haverá algum limite acordado coletivamente sobre como ela é usada e sobre quem pode ser seu alvo. A diferença entre um mundo com esses limites e um mundo sem eles não é a diferença entre paz e guerra. É a diferença entre civilização e barbárie.

Nota sobre fontes

Este texto baseia-se em fontes jornalísticas de primeira linha (Wall Street Journal, Axios, Washington Post, Al Jazeera, MIT Technology Review, Foreign Policy, The Intercept), documentos institucionais (UN OODA, CCW/GGE, SIPRI, Chatham House, Atlantic Council), relatórios técnicos (Defence Security Asia, Small Wars Journal) e documentos públicos da Anthropic, OpenAI e do Departamento de Defesa dos EUA, produzidos entre janeiro e abril de 2026. Todos os eventos descritos são factuais e documentados. As propostas regulatórias são originais do autor e derivadas analiticamente dos princípios publicamente declarados pela Anthropic em seu litígio com o Pentágono.

*Fernando Horta é doutor em história das relações internacionais pela Universidade de Brasília (UnB) e consultor ONU/PNUD para transformações digitais.

Nenhum comentário:

Postar um comentário