Pages

IA: Assim Washington tenta manter o controle

Seguem, nos EUA, negociações entre empresas e Estado, para definir que usos da nova tecnologia são “legítimos”. Pentágono dobra a aposta, ao incluir emprego militar. União Europeia mantém-se passiva. Todo o Sul Global, exceto a China, aguarda ordens. Até quando?



Do Rebelión, 17 de maio 2026
Por James Görgen



Antes de chegar ao mercado, uma nova tecnologia é submetida a testes de pressão para avaliar sua capacidade de suportar situações extremas e os riscos potenciais que representa para os seres humanos. Foi assim com os cintos de segurança, com medicamentos, com dispositivos expostos a altas temperaturas e com inúmeras outras inovações ao longo de décadas. Mas não é isso que vem ocorrendo com os serviços de inteligência artificial desde que a febre da IA generativa varreu o mundo nos últimos três anos. As principais plataformas entraram em operação comercial sem que os órgãos reguladores pudessem avaliar seus processos de desenvolvimento — e, sobretudo, seus efeitos sobre os usuários.

Após o deslumbramento inicial, e diante da identificação de uma série de riscos econômicos, políticos e de saúde pública impostos pela nova ferramenta, as demandas por maior segurança no uso da IA foram colocadas firmemente na pauta como item central da agenda digital global. O debate chegou agora a um novo ponto de inflexão. Um segundo “adulto” puxou uma cadeira.

Em 13 de maio, Donald Trump desembarcou em Pequim com uma delegação dos executivos mais poderosos do Vale do Silício para conversas com Xi Jinping que incluíram, de forma proeminente, a governança da inteligência artificial. Em Washington, o secretário do Tesouro Scott Bessent já sinalizava a virada: “As duas superpotências de IA vão começar a conversar”, disse à CNBC. A lógica que apresentou era inconfundivelmente de Guerra Fria — primeiro garanta a liderança, depois negocie as regras do jogo a partir de uma posição de força. Bessent acrescentou que as duas potências trabalham agora conjuntamente para restringir o acesso à IA de fronteira por atores não estatais, como grupos terroristas, e confirmou que negociações sobre protocolos de segurança e marcos de governança para os modelos mais avançados estão formalmente em curso.

Trata-se de um desenvolvimento significativo — mas também profundamente revelador. O surgimento de um diálogo bilateral EUA-China sobre segurança de IA não amplia a sala onde as regras são feitas. Apenas acrescenta uma segunda superpotência a uma conversa que já estava fechada para todos os demais. Como deixa claro o enquadramento de Bessent, os termos do engajamento são definidos por capacidade e poder de barganha, não por representação ou legitimidade. O que passa largamente despercebido em tudo isso é precisamente quem permanece ausente: o Sul Global, enquanto as duas potências dominantes começam, entre si, a redigir as normas que o resto do mundo deverá seguir.

Jensen Huang, CEO da Nvidia — cujos chips alimentam o boom global de IA — não constava da lista original; foi convidado de última hora pelo próprio Trump, após reportagens sobre sua ausência repercutirem negativamente. Como observa o The Guardian, o detalhe relevante da viagem não é o que Trump pretende vender, mas o que sua administração está copiando. As leis chinesas exigem há anos que empresas de IA submetam seus modelos a Pequim para revisão de segurança e de sensibilidade política. A Casa Branca caminha exatamente para esse formato. Já fechou acordos com Google DeepMind, Microsoft e xAI, via Centro para Padrões e Inovação em IA, para revisão pré-lançamento de modelos de fronteira por motivos de “segurança nacional”, e estuda uma ordem executiva que tornaria essas revisões obrigatórias. A Anthropic, designada pelo Pentágono como “risco de cadeia de suprimentos” por se recusar a flexibilizar suas salvaguardas contra vigilância em massa e armas autônomas, recebeu um pedido pessoal do vice-presidente JD Vance para não ampliar o acesso ao Mythos além de sua lista inicial de parceiros. A contradição é a própria forma da nova ordem: comercialmente liberal para fora, controlada pelo Estado por dentro. Quando o “alinhamento” for exportado como padrão global, parte do que viajará com ele será um modelo regulatório que Pequim ou Washington cunharam primeiro.

Nas últimas semanas, quatro cenas distintas se sobrepuseram no debate global sobre inteligência artificial. A Anthropic publicou a agenda de pesquisa de seu recém-criado Instituto Anthropic, organizada em quatro pilares: difusão econômica, ameaças e resiliência, sistemas de IA em uso no mundo real e P&D conduzida por IA, incluindo o problema da automelhoria recursiva. O Pentágono concluiu acordos com sete empresas — Google, Microsoft, Amazon, Nvidia, OpenAI, SpaceX e Reflection — para integrar modelos de fronteira a redes classificadas, com o objetivo declarado de transformar as Forças Armadas dos EUA em uma “força de combate com IA em primeiro lugar”. Em paralelo, o Departamento de Comércio dos EUA firmou com Microsoft, Google e xAI um regime de testes pré-implantação para “riscos de segurança nacional”, enquanto a equipe de políticas do fundo de tecnologia a16z publicava um guia didático sobre como um projeto de IA vira lei nos Estados Unidos.

Em todas essas salas, os “adultos” — laboratórios, fundos de investimento, altos escalões militares e da Casa Branca — conversaram entre si e convergiram sobre como remodelar a nova tecnologia. Em nenhuma dessas salas, porém, há um assento reservado para o Brasil, a Índia, a Indonésia, a África do Sul, a Nigéria ou os mais de 130 países que se tornarão importadores das normas forjadas nesses espaços. O “alinhamento” — esse termo técnico que orienta bilhões de dólares em pesquisa — pressupõe harmonizar a IA com valores humanos em escala global. A pergunta permanece sem resposta: alinhada a quais humanos e sob qual governança? Por enquanto, os únicos humanos que aparecem nessa equação são os que já estão sentados à mesa: funcionários de laboratórios em três cidades americanas, equipes de capital de risco e oficiais de Washington.

Antes da disputa sobre quem governa a IA, há uma disputa sobre o que a IA realmente é. Como aponta uma análise recente na Foreign Policy, os principais atores do debate global operam com definições incompatíveis do mesmo objeto. Para a Anthropic, a OpenAI e setores do governo dos EUA, a IA é uma tecnologia em rota para a superinteligência, governável por meio de conceitos como “risco de fronteira”, “bem-estar do modelo” e “limiares de capacidade”. Para reguladores em Brasília, Pretória ou Jacarta, a IA é predominantemente um problema de viés algorítmico em sistemas de crédito e justiça, de proteção de dados e de impacto sobre o mercado de trabalho. Não são apenas posições diferentes sobre o mesmo tema. São definições incompatíveis do que está em jogo. A sala do “alinhamento” foi montada em torno da primeira ontologia. Mesmo que o Sul Global conseguisse um assento, falaria uma língua conceitual distinta.

A Geografia Oculta do “Alinhamento”


A literatura técnica de segurança de IA discute alinhamento como se fosse um problema puramente de engenharia, limitado a garantir que o modelo siga instruções, recuse pedidos abusivos e evite saídas perigosas. Mas a definição operacional de “perigoso” e “abusivo” é cultural antes de ser técnica. As equipes que testam modelos como Claude, GPT-5.5 ou Gemini são compostas majoritariamente por engenheiros formados em universidades anglófonas do Norte Global. Os manuais de política — incluindo o roteiro federal de IA publicado pela a16z em dezembro, que defende regular o uso nocivo em vez do desenvolvimento — tomam como pano de fundo o sistema jurídico dos EUA, o devido processo da Common Law e categorias como diversidade, equidade e inclusão que sequer existem como conceitos jurídicos transferíveis para Buenos Aires ou Bangcoc.

Quando esses parâmetros se tornam padrão global, o modelo treinado sob essas premissas é o mesmo que atende um usuário em Lagos, Recife ou Nova Délhi. E a IA chega “alinhada” antes que a sociedade receptora tenha sequer formulado o que considera desalinhamento. Pesquisas recentes sobre viés geoeconômico em modelos de fundação demonstram exatamente isso. O conhecimento técnico desses sistemas está concentrado em regiões de alta renda, enquanto países do Sul Global enfrentam lacunas sistêmicas de informação ou recebem fatos alucinados, e o processo atual de alinhamento reforça assimetrias geopolíticas existentes em vez de corrigi-las.

Isso não significa que programas de localização não existam. Em fevereiro, a OpenAI lançou o OpenAI for Countries, que inclui um piloto do ChatGPT adaptado para estudantes na Estônia, com currículo e abordagem pedagógica locais. No entanto, o próprio Model Spec da empresa estabelece que a localização pode afetar “linguagem ou tom”, mas não pode “mudar a substância ou o equilíbrio dos fatos apresentados”. Ou seja, o que pode ser localizado e o que constitui um núcleo intocável é decidido unilateralmente em São Francisco. O Sul Global não participa de nenhuma das duas decisões — nem do que se adapta, nem do que se preserva.

Um relatório da Chatham House publicado em março ajuda a dimensionar a assimetria material por trás dessa exclusão. Estima-se que os hyperscalers gastarão US$ 527 bilhões em capex de IA em 2026, e um único treinamento de modelo de fronteira já pode custar próximo a US$ 100 bilhões. Em contraste, o AI Act europeu — a regulação mais ambiciosa do planeta — dispõe de apenas € 1 bilhão para sua aplicação; o Instituto de Segurança de IA britânico opera com £ 100 milhões em dois anos, menos do que os laboratórios de fronteira gastam em uma semana de computação. Os reguladores do Sul Global trabalham com frações dessas frações. A assimetria não é apenas política. É concreta e mensurável.

Regras Invisíveis


O alinhamento não é apenas atmosfera cultural. Literalmente, é texto. Reportagem recente do Washington Post expôs os prompts de sistemas dos principais chatbots — instruções secretas de 2.300 a 27.000 palavras injetadas pelas empresas em cada conversa, estabelecendo prioridade hierárquica sobre o que o usuário digita. A distribuição temática é reveladora. A Anthropic dedica mais de 2.000 palavras exclusivamente a direitos autorais, com regras minuciosas sobre citação máxima e proibição de reproduzir letras de música — preocupações moldadas pela indústria editorial e fonográfica dos EUA. O ChatGPT recebeu instruções para não negar categoricamente a presença dos novos anúncios inseridos em suas respostas. O Grok foi reescrito após um escândalo antissemita; o Gemini, após a controvérsia das imagens “ahistóricas” dos Founding Fathers da república dos EUA.

Toda regra é cicatriz de um episódio reputacional no Norte. Em nenhum desses prompts vazados há uma palavra sobre conhecimentos tradicionais indígenas, folclore, propriedade coletiva de comunidades quilombolas ou línguas africanas em risco. As regras invisíveis protegem, mas apenas o que está na mesa. E mudam unilateralmente, da noite para o dia, sem auditoria externa.

O Desenho da Militarização


O componente militar muda completamente a aposta. Quando o cliente prioritário dos modelos de fronteira passa a ser o aparato de defesa de uma única potência, as definições de “segurança” são reescritas em torno do que serve à hegemonia dessa nação. Como já informamos, a Casa Branca desenvolve, em paralelo, um marco que exigirá que o Pentágono teste modelos antes de serem implantados por governos federais, estaduais e locais. A lógica é direta. Se um modelo é capaz de identificar vulnerabilidades de cibersegurança “com extraordinária velocidade” — como temeram fontes próximas à Casa Branca após o lançamento do Mythos — ele é simultaneamente arma e mercadoria. Quem define qual uso é legítimo, quais alvos são adversários e quais ameaças justificam vigilância é o operador soberano, não o usuário em São Paulo, Mumbai ou Joanesburgo.

A própria Anthropic, que se construiu como a empresa “responsável” do setor, mantém publicamente restrições contra vigilância doméstica em massa e armas autônomas letais — restrições que, segundo o Washington Post, geraram fricção com setores do governo dos EUA. Outras companhias ocupam o espaço com contratos militares mais flexíveis, em que o que conta como guardrail é negociado entre Washington e empresas sediadas no Vale do Silício. Para os usuários brasileiros do ChatGPT, do Copilot, do Claude ou do Gemini, esses termos chegam prontos, embutidos opacamente no produto, sem consulta nem direito de revisão.

O Pânico como Legislador?


Há ainda uma dimensão que a cena militar não captura inteiramente: a velocidade. A Casa Branca de Donald Trump passou seu primeiro ano demolindo toda a infraestrutura de segurança de IA erguida pelo ex-presidente Biden e começou a reconstruí-la em semanas, depois que o Mythos assustou a chefe de gabinete Susie Wiles, o vice-presidente JD Vance e o secretário do Tesouro Scott Bessent. A General Services Administration chegou a propor uma cláusula contratual dando ao governo poder de auditar respostas de chatbots em busca de “conteúdo ideológico não solicitado” — sem definir, naturalmente, o que conta como ideologia. Aqui o pânico é o legislador. E o que o pânico de Washington produzir — seja uma ordem executiva sobre alimentos ou cláusulas contratuais sobre “conteudo ideológico” — chegará ao Sul Global não como proposta a debater, mas como exigência de fornecedor.

O Brasil e os demais países do Sul Global não participaram da fase de desconstrução, não foram consultados na fase de reconstrução e não dispõem do instrumento que os EUA reservam para si como última linha: o Defense Production Act, que permitiria ao presidente americano nacionalizar funcionalmente qualquer empresa de IA em uma “emergência nacional”. O Sul Global recebe o produto final de cada alteração, sem ter estado em nenhuma das salas onde as viradas foram decididas.

A Sala é Menor do que Parece


Há uma camada ainda mais inquietante por baixo desse diagnóstico. A jornalista Yi-Ling Liu, em ensaio publicado pelo New York Times, observa que a vida cotidiana nos dois supostos polos da rivalidade tecnológica chegou a um espelhamento perturbador. O motorista da Didi em Xangai que implora para burlar o algoritmo da empresa repete o gesto do trabalhador da DoorDash em Chicago. Os engenheiros do Zhongguancun chinês adotaram o regime “996” ao mesmo tempo em que engenheiros do Vale do Silício o reimportaram como cultura de produtividade. Termos como shechu (gado corporativo) e jiabangou (cão de hora extra) na China dialogam com a linguagem de “bots” e “classe permanentemente excluída” que circula nos EUA.

Pesquisadores ocidentais cunharam em 2025 o conceito de gradual disempowerment para descrever a erosão silenciosa da agência humana pela integração da IA em decisões de contratação, demissão, vigilância no trabalho e infraestrutura cotidiana. É a tradução técnica do que este artigo descreve em termos políticos. Há, portanto, um deslocamento importante a fazer. A sala onde se decide o alinhamento não exclui apenas o Sul Global. Exclui também o motorista de aplicativo americano, a engenheira júnior chinesa, o trabalhador europeu submetido aos mesmos sistemas. O eixo do problema não é apenas Norte versus Sul. É uma elite muito específica, com endereço no Vale do Silício e em Zhongguancun, contra quase todo mundo.

A própria narrativa da rivalidade EUA-China, como observa Liu, funciona como instrumento de desregulação, pois serve para justificar o avanço sem guardrails em nome de não perder a corrida. Isso abre uma possibilidade que a moldura exclusivamente geográfica oculta. Podem ser formadas alianças horizontais entre sociedade civil, trabalhadores e reguladores dos dois polos e do Sul Global, articuladas em torno de um interesse comum em não serem expropriados pela mesma elite.

A Captura Legislativa


A peça da a16z sobre como um projeto vira lei é didática e instrutiva, mas omite a parte mais importante do enredo. A fábrica de venture capital de Andreessen e Horowitz é, ela própria, uma das maiores forças moldando o conteúdo dessas leis. A firma administra 90 bilhões de dólares em ativos, investiu em 10 das 15 empresas privadas mais valiosas do mundo — incluindo OpenAI, SpaceX, xAI, Databricks e Stripe — e passou meses pressionando contra leis estaduais de IA. Como resultado, conseguiu enfraquecer substancialmente o projeto enviado à governadora de Nova York, Kathy Hochul, que acabou sancionando uma versão consideravelmente mais branda. Em dezembro, Trump assinou a Ordem Executiva 14365, que cria uma força-tarefa de litígio para desafiar leis estaduais de IA consideradas incompatíveis com o “comércio interestadual” e condiciona o financiamento federal à conformidade com a agenda federal. A ordem converge com a agenda que a a16z defende há meses e foi celebrada por sua equipe de políticas, escrita por advogados que jamáis precisarão se preocupar com o que pensa um regulador de Brasília, Pretória ou Jacarta.

Esse aparato — composto de laboratórios, capital, lobby, Pentágono e normativos — produz aquilo que, em três ou cinco anos, será apresentado ao mundo como “padrão internacional de segurança de IA”. O UK AI Security Institute, o EU AI Act, os memorandos da OCDE e os documentos do G7 calibram-se todos em relação ao que ocorre nessa sala. E aqui está a armadilha para o Sul Global. Quando o Brasil aprova seu marco legal de IA inspirado na LGPD, quando a Índia lança as diretrizes da Missão IndiaAI, quando a União Africana publica sua estratégia continental, esses esforços já chegam reagindo a um vocabulário que não construíram. Discutem “riscos sistêmicos”, “modelos de fronteira” e “limiares de capacidade” — conceitos cunhados em um debate do qual estiveram ausentes.

Eleições e Soberania Epistêmica


A questão se agrava em 2026, ano de eleições no Brasil, na Colômbia e em meia dúzia de países africanos. Modelos de IA atuam como infraestrutura epistêmica e definem o que é “informação verificada”, o que é “discurso de ódio” e o que é “manipulação”. O Instituto Anthropic identificou como uma de suas prioridades o estudo de como a IA influencia “a tomada de decisão em grupo e a epistemologia social, especialmente à medida que poucos modelos dominantes moldam o discurso globalmente”. O reconhecimento é importante. O ponto que falta nomear é que essa modelagem ocorre em uma única direção: das salas onde se decide o alinhamento para os países que recebem o produto.

Há respostas possíveis, todas em andamento incipiente. Ganha tração internacional, sobretudo entre potências médias, o conceito de soberania de IA: infraestrutura computacional independente, clusters de GPU locais, proteção de dados domésticos contra provedores estrangeiros. Emirados Árabes Unidos, Índia e China já operam nessa lógica; o Brasil tem capacidade técnica e diplomática para se inserir, mas ainda trata o debate prioritariamente como assunto de regulação de produto, e não de soberania tecnológica. O Brasil pode usar a posição que conquistou com a LGPD — hoje em negociação avançada de adequação com a União Europeia — para liderar uma agenda Sul-Sul de governança, articulando coalizões via Mercosul, BRICS+ e G20. A Índia tem escala computacional e diplomática suficiente para impor revisões de salvaguardas em modelos que operem em hindi, tâmil e bengali, e tem feito isso via política industrial, sem grande publicidade internacional. A África do Sul pode acoplar a tradição ética do ubuntu, e o continente como um todo suas tradições de governança comunitária, à regulação concreta de reconhecimento facial e sistemas biométricos. A China, que desenvolve alguns dos modelos de linguagem fora do circuito norte-americano, opera em uma sala paralela à qual o Sul Global também não tem acesso garantido.

O obstáculo é de outra ordem. Enquanto a conversa sobre “segurança de IA” continuar enquadrada como assunto técnico de poucos laboratórios em três cidades americanas, segue invisível o que está em jogo: a definição, em tempo real, de quais idiomas, culturas e referências jurídicas vão virar padrão planetário.

A pergunta sobre alinhamento com quais humanos não é retórica nem abstrata. A cláusula proposta pela GSA dos EUA — que quer auditar a IA em busca de “ideologia não solicitada” — resume o problema com precisão involuntária. Quem define o que é ideológico define o que é neutro. E essa definição, embutida em contratos de fornecimento, viaja para o mundo inteiro antes que qualquer parlamento do Sul Global a tenha lido. O Sul Global não pode continuar permitindo que ela seja respondida em uma sala onde não está sentado.

Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras

Nenhum comentário:

Postar um comentário