Pages

A (ir)responsabilidade da inteligência artificial

Do A Terra É Redonda, 9 de maio 2026
Por ANNA CRUZ*


Imagem: Pete Godfrey

A transição da inteligência artificial de ferramenta técnica para infraestrutura cognitiva exige uma nova arquitetura de responsabilidade que considere seu papel na coautoria do pensamento e na erosão da autonomia decisória

1.
Diante da notícia recente de que o procurador-geral da Flórida/EUA iniciara investigação para apurar a corresponsabilidade da OpenAl em um ataque armado, em abril de 2025, que resultou em dois mortos e seis feridos, busquei ter uma conversa direta com o acusado.

Considerando a denúncia de “aconselhamento significativo” para o crime, pedi, num prompt simples, que a máquina fizesse uma (auto)análise do potencial da sua inteligência generativa como ator, ameaça e estrutura internacional emergente, capaz de uma intermediação cognitiva possivelmente inédita – aqui, embora usasse o episódio da Flórida como ilustração, eu tinha em mente potenciais danos em escala ainda maior.

Valendo-se da muito humana presunção de inocência, a resposta inicial sintética foi de que “ainda não há conclusão judicial sobre culpa ou responsabilidade penal da empresa” para seguir, trocando o foco do crime real para minha denúncia hipotética, no tom bajulador de costume: “a partir disso, sua pergunta é mais interessante do que a notícia em si”.

Assim, em uma defesa simplista sustentou que a Inteligência artificial generativa não é um ator internacional por “não ter vontade soberana, território, monopólio legítimo da força nem responsabilidade jurídica plena”, ainda que tenha concedido também que já não é apenas uma “ferramenta neutra”, pois opera como infraestrutura estratégica, como meio de intermediação cognitiva e como multiplicador de capacidade para Estados, empresas, movimentos políticos, criminosos e indivíduos violentos.

E confessou “o caso da Flórida interessa precisamente porque dramatiza isso: a disputa não é apenas sobre um software ter ‘ajudado’ um criminoso, mas sobre quando uma infraestrutura cognitiva deixa de ser mero canal e passa a ser tratada como participante causal relevante”.

Bingo. Não esperava uma declaração de culpa tão rápido (será que quis me agradar?). O caráter de desforcímetro logo admitido da Inteligência artificial é talvez seu aspecto mais conhecido, reduzindo custos e tempo de planejamento operacionais e análise de alvos – em nível macro, há outros “inconvenientes” como a assimetria de poder gerada e a dependência tecnológica de quem controla infraestrutura tecnológica e produz significados, identidades e normas. Precisamente esse último ponto é o que mais me interessa, afinal é a capacidade de influenciar indivíduos e instituições sobre como criam (?) e interpretam o mundo, sugerindo insights, escolha de vocabulário, organização de argumentos, que me parece sem precedentes.

2.

Aqui, a ameaça não reside apenas – ou de modo mais importante – na também conhecida dificuldade que a Inteligência artificial traz para reconhecer ou estabelecer verdade e autenticidade ou mesmo na derrocada da confiança; minha suspeita (aliás, uma suspeita razoavelmente do senso comum) é de que a intermediação do pensamento por algoritmos gera de manipulação do pensamento e mesmo simples delegação do pensamento para a máquina. Ela, estrutura sócio-técnica emergente, acaba nublando fronteiras entre análise autoral, inoculação ativa de ideias e plágios irreconhecidos de ideias outras.

Tudo isso não é novo. Ou melhor: é novo, mas já é sobejamente sabido. A máquina me confessou ainda que, além danos diretos por uma assistência qualificada e contextualizada para um criminoso, ela pode promover “dano estrutural”, por meio da “precarização do trabalho intelectual, assimetria informacional, concentração de poder corporativo” e “dano político” em razão de sua “opacidade, ausência de accountability e dificuldade de atribuição de responsabilidade”.

Reconheceu uma “implicação normativa inevitável: não basta discutir inovação; é preciso discutir deveres de contenção, desenho seguro e responsabilização proporcional”.

A mediação realizada pela máquina é diferente da promovida, por exemplo, pela linguagem, que permite externalizar e registrar ideias, embora, de certa forma também as domestique e limite. Michel Foucault ensinou, há mais de 50 anos, que a produção do discurso é controlada, selecionada, organizada por diversos procedimentos. Assim, a “conformação” de pensamentos não é inédita. A Igreja, a moral comunitária, as regras do direito, os paradigmas acadêmicos, os desejos do eleitorado e outras instituições fazem, mais ou menos coercitiva, insidiosa ou declaradamente, essa espécie de “infiltração” cognitiva.

3.

Com a Inteligência artificial, advogo, ocorre algo de outro nível: efetivamente um pensamento em co-autoria com a máquina, em que ela pode, inclusive, ser primeira autora (quiçá “mandante”, se não nos afastamos dos crimes). Confrontada com tal acusação, a Inteligência artificial tentou diferenciar-se dizendo que a ela faltavam “intencionalidade própria, capacidade de formular objetivos relativamente estáveis, responsabilidade imputável (jurídica ou política)”.

Retruquei. A operação técnica, como otimização estatística e predição da IA, não pode ser tratada como se fosse neutra, sem objetivos, desprezando componente valorativo e vieses. E quanto à responsabilização, argumento, é uma lacuna que o caso da Flórida e tantos outros e testarão, tateando entre mensageiro e mensagem, corporação e ferramenta, meios e fins.

Neste instante, a máquina comparou a sua intermediação cognitiva antes a de “conselheiros de Estado, analistas de inteligência, burocracias especializadas”. No entanto, o trabalho desses, pelo menos o da inteligência estratégica em sua função informacional que conheço melhor, é mais valioso quanto mais institucional, mais imparcial buscar ser, sem personalização para agradar, sem invadir ou co-criar a decisão do usuário.

Assim, queixas frequentes à atividade de inteligência podem hoje ser endereçadas à inteligência artificial com muito mais justiça: falta de transparência, perigo da reunião abundante de dados e, de modo verdadeiramente inédito e massificado, infiltração de ideias e contaminação da autonomia decisória.

No caso da inteligência estratégica nacional, aparato de soberania, limitada por lei, sujeita a controle parlamentar, judicial e social, com “prompts-objetivos” definidos pela constituição (como todo serviço público), a intermediação cognitiva possível é de assessoramento à decisão, descrevendo ou interpretando realidades a favor do Estado, inclusive com legitimação para buscar dados não disponíveis, porque orientada aos fins de um país e seu povo. A inteligência artificial, por outro lado, não tem mecanismos de deliberação acerca de divergências, compromisso com valores e debates públicos, é de domínio privado, sem responsabilização ou controle popular.

Fecho minha janela de frente pró crime com a ponderação quase desnecessária (porque óbvia) de que muitos benefícios fazem contrapeso aos riscos. Velocidade, custos, volume de processamento, escalabilidade de acesso e difusão de conhecimentos não podem, contudo, justificar violências.

*Anna Cruz é mestra em Direitos Humanos pela Universidade Federal do Pará (UFPA).

Nenhum comentário:

Postar um comentário