Pages

Inteligência artificial diante do futuro

Do A Terra É Redonda, 02 de abril  2025
Por FERNANDO NOGUEIRA DA COSTA*


Imagem: Tara Winstead

A influência da IA na nossa percepção e no desenvolvimento do futuro faz necessário uma abordagem crítica que compreenda sua imersão em contextos sociais e culturais

Inteligência artificial não vai ao futuro – e volta, tal como uma fictícia “máquina do tempo”. Inteligência artificial não adianta o futuro. Caso fizesse isso, todos os compradores de ações enriqueceriam porque comprariam certamente as ações em alta e as venderiam no momento exato antes da reversão do boom para o crash?

Ora, se todos se utilizassem dessa mesma Inteligência artificial, ninguém venderia as ações “vencedoras”! Uma autoironia, escutada no estado onde nasci, é os mineiros desconfiados jamais fazerem negócios por pensarem: “se o outro está aceitando a proposta é porque é boa para ele – e ruim para mim…” Desconfia até de uma relação “ganha-ganha”: aquela onde ninguém perde e todos ganham.

As principais ideias do meu colega do Instituto de Economia da Unicamp, Eduardo Mairutti, conforme apresentadas no artigo “A captura do futuro? Inteligência artificial e metamorfose da percepção” (Lugar Comum. Rio de Janeiro, n. 70, dezembro de 2024), giram em torno da generalização de máquinas perceptivas e sistemas equipados com aprendizado (Inteligência artificial) e seu impacto na nossa percepção e entendimento do futuro. A Inteligência artificial não deve ser vista como uma externalidade desumanizadora, mas como uma nova combinação entre humanos e máquinas capaz de transformar nossa compreensão de espaço e tempo, além das noções de causalidade e determinação.

Essa generalização reforça as instituições contemporâneas através do confinamento do futuro em um regime disciplinar preditivo. Ao mesmo tempo, essas agências (sistemas de Inteligência artificial) permitem a nossa libertação da filosofia autocrática dominante da reflexão sobre a tecnologia, possibilitando uma mudança qualitativa no futuro.

Ele não define explicitamente essa “filosofia autocrática dominante”. Contudo, é possível inferir as características dessa filosofia a partir dos argumentos apresentados por Eduardo Mairutti em uma leitura entrelinhas, por exemplo, argumenta: “a Inteligência artificial não deve ser vista como uma externalidade desumanizadora, mas sim como uma nova combinação entre humanos e máquinas”.

Isso sugere a filosofia autocrática dominante tender a ver a tecnologia como algo separado e potencialmente alienante da experiência humana. Seria uma força externa capaz de agir sobre nós de maneira determinante e desumanizadora.

A afirmação de a generalização da Inteligência artificial reforçar as instituições contemporâneas através de um regime disciplinar preditivo indica a filosofia dominante favorecer uma visão da tecnologia como ferramenta de controle e previsão por parte de autoridades ou instituições estabelecidas, como fosse uma estrutura de poder centralizada, tipo o “Grande Irmão”, um personagem fictício no romance 1984 de George Orwell, onde todas as pessoas estão sob constante vigilância das autoridades.

Eduardo Mairutti menciona a necessidade de uma “filosofia não-autocrática” para pensar a relação entre a sociedade, o humano e a máquina. Desse modo, a filosofia autocrática dominante provavelmente não considera adequadamente a complexa interconexão e mútua influência entre esses elementos ao adotar uma perspectiva mais hierárquica ou unilateral, onde a tecnologia é vista como um instrumento a ser dominado ou controlado de cima para baixo.

Embora Eduardo Mairutti não ofereça uma definição formal da “filosofia autocrática dominante da reflexão sobre a tecnologia”, é possível inferir ela provavelmente se caracterizar por uma visão da tecnologia como (i) uma entidade separada e potencialmente ameaçadora aos humanos, (ii) um instrumento de controle hierárquico e previsão por parte de instituições estabelecidas, e (iii) uma falta de compreensão da relação intrínseca e transformadora entre humanos e tecnologia.

A proposta de Eduardo Mairutti é, portanto, buscar uma nova forma de pensar a tecnologia de modo a escapar dessa estrutura “autocrática”. Autocracia é um regime de governo onde o poder está concentrado em uma única pessoa, o autocrata. O termo vem do grego autos (por si próprio) e kratos (poder).

Eduardo Mairutti questiona a ideia de a Inteligência artificial representar uma ameaça externa à agência humana ao argumentar ser crucial entender como essa entidade “externa” se constitui em nossa interação com ela. Ele destaca a metáfora de uma “mente alienígena” atribuída à Inteligência artificial, enfatizando esses sistemas sempre combinarem humanos, máquinas, instituições e objetos. Os datasets alimentadores dessas Inteligência artificial são em grande parte produtos de atividades humanas e refletem vieses sociais existentes.

O autor também aborda a mecanização da razão e a automação da percepção, referenciando desenvolvimentos históricos na pesquisa em Inteligência artificial. Eduardo Mairutti explora como a nossa própria percepção está sendo remodelada por essas tecnologias ao mencionar a influência da perspectiva na pintura e o desenvolvimento de ferramentas matemáticas e estatísticas para entender a visão de figuras – e do futuro?!

Ele examina a automação da percepção em relação à história das ferramentas e máquinas, sugerindo uma continuidade entre formas mais antigas de mecanização e a Inteligência artificial contemporânea. Eduardo Mairutti discute a emergência de um espaço vetorial multidimensional a partir dessas tecnologias, cristalizando nossa percepção e compreensão de objetos e suas relações.

Aborda as implicações disso para a nossa compreensão da racionalidade, sugerindo um novo tipo de racionalidade emergir do machine learning, onde correlações e regularidades nos dados se tornam centrais. Ele também aponta para o potencial de uma “governança estatística”, baseada nesses sistemas preditivos, com implicações políticas a serem consideradas.

Por fim, Eduardo Mairutti enfatiza a necessidade de uma abordagem crítica da Inteligência artificial. Deve ser capaz de compreender sua imersão em contextos sociais e culturais e explorar seu potencial para remodelar nossa percepção da realidade.

Em suma, propõe uma reflexão sobre a Inteligência artificial além da visão de uma ferramenta neutra ou de uma ameaça externa. Busca entender como ela se imbrica com a percepção humana e as estruturas sociais, moldando ativamente nossa relação com o futuro.

A “captura do futuro” envolve a influência da inteligência artificial na nossa percepção e no desenvolvimento do futuro, através do reforço de regimes disciplinares preditivos. No entanto, a meu ver a natureza das decisões econômico-financeiras – descentralizadas, descoordenadas e desinformadas – apresenta problemas insuperáveis para essa “captura”.

A Inteligência artificial e os sistemas de aprendizado de máquina operam com base em bancos de dados e na identificação de padrões. A capacidade preditiva desses sistemas depende da existência de regularidades e informações relevantes nos dados de treinamento. Decisões desinformadas introduzem ruído e imprevisibilidade não capturados por modelos preditivos baseados em padrões históricos.

Além disso, a descentralização e a descoordenação das decisões significam múltiplos agentes estarem agindo de forma independente, sem uma lógica centralizada possível de ser modelada ou prevista com precisão. A emergência de um futuro a partir dessas interações complexas gera novidades genuínas e desvios de padrões passados, tornando a captura preditiva totalmente incerta.

Conforme Eduardo Mairutti, os datasets alimentadores da Inteligência artificial são produtos humanos e refletem vieses existentes. Um futuro emergente de decisões genuinamente novas e não informadas por esses vieses escapariam das previsões baseadas nesses dados. A ideia da “mente alienígena” da Inteligência artificial também sugere as interações entre humanos e máquinas levarem a resultados inesperados.

Embora a Inteligência artificial seja usada para tentar controlar e dinamizar processos de produção, e para estabelecer correlações estatísticas em busca de antecipar eventos, a própria natureza incerta e emergente de sistemas complexos com muitos agentes descentralizados torna a previsão e o controle inalcançáveis. Há uma incerteza inerente e constante transformação da realidade de modo a dificultar a captura preditiva.

Em suma, embora a Inteligência artificial possa influenciar e moldar o futuro através da “captura” baseada em padrões e previsões, a natureza intrinsecamente imprevisível de um futuro emergente de decisões descentralizadas, descoordenadas e desinformadas apresenta um limite impeditivo à capacidade de prever e controlar completamente esse futuro com as ferramentas e abordagens atuais da inteligência artificial. A novidade e a falta de padrões claros nessas interações tornam a captura do futuro, nesse cenário específico, altamente improvável.

*Fernando Nogueira da Costa é professor titular do Instituto de Economia da Unicamp. Autor, entre outros livros, de Brasil dos bancos (EDUSP). [https://amzn.to/4dvKtBb]

Posts relacionados:

Nenhum comentário:

Postar um comentário