Sair
Assine
Entrar

Entre para receber conteúdo exclusivo.
ou
Crie sua conta A Gazeta
Recuperar senha

Preencha o campo abaixo com seu email.

Ensaio

Esqueçamos Inteligência Artificial. Pensemos em Amplificação da Inteligência

Proponho que esqueçamos essa alegoria do robô autônomo e inteligente, seja ele benevolente ou não. Proponho que pensemos, em vez disso, no Homem de Ferro, aquele clássico, sem o seu agente inteligente Jarvis e sem uma armadura autônoma

Públicado em 

05 out 2025 às 04:30
Giancarlo Guizzardi

Colunista

Giancarlo Guizzardi

g.guizzardi@utwente.nl

Ted Chiang é um escritor norte-americano de origem taiwanesa e autor de um belíssimo conto chamado “História da sua vida” (Story of Your Life), que inspirou um dos meus filmes de ficção científica preferidos da última década: “A Chegada” (2016). A obra fala sobre a relação entre linguagem, percepção da realidade e o determinismo temporal. Nela, uma linguista tenta decifrar a linguagem de uma inteligência alienígena que nos visita.
A Chegada
Cena de "A Chegada", versão cinematográfica do conto "História de Sua Vida" Crédito: Sony Pictures Entertainment
Como a linguagem é a externalização do conteúdo da cognição, ou seja, uma janela que reflete como percebemos e concebemos o mundo, para decifrá-la essa linguista precisa entender como essa inteligência interage com o mundo, em particular com o tempo e com os eventos que nele ocorrem. Por exemplo, essa inteligência percebe o tempo de forma não linear, em que passado, presente e futuro se apresentam concomitantemente, e isso é refletido em sua linguagem, na qual a ordem de conclusões e premissas pode ser invertida.
Como dizia o filósofo austríaco Ludwig Wittgenstein: “Os limites do nosso mundo são os limites da nossa linguagem”. Linguagem, ontologia (o que damos por existente em um determinado contexto e qual é a natureza dessas coisas) e epistemologia (como construímos nosso conhecimento sobre o mundo) possuem intrincadas relações mútuas. Seres de outras espécies, com outras histórias evolutivas e com corpos que os colocam no mundo de formas radicalmente diferentes, possuem distintas linguagens porque possuem diferentes epistemologias e ontologias.
Como ilustrado de forma magistral no conto (e no filme), o desafio de nos comunicarmos com inteligências alienígenas não se deve somente à falta de conhecimento sobre sua sintaxe (léxico e gramática), mas principalmente à dificuldade de reproduzirmos seus processos cognitivos e seus modelos de mundo. Contudo, o contato com essas diferentes ontologias e epistemologias pode também alterar a nossa percepção do mundo. Nessa obra, por exemplo, a linguista que protagoniza a história começa a ter sua percepção de tempo e de eventos alterada.
Chiang tem escrito nos últimos anos também sobre IA e, em particular, sobre sua relação com a linguagem e a arte. Recentemente, em um artigo que se tornou polêmico para a revista The New Yorker, rechaçou o uso da IA generativa em criações artísticas e, em especial, na produção de textos ficcionais dignos de interesse. Chiang está longe de ser um ludita e, além de sua fascinação pela linguagem e por inteligências alienígenas, é formado em ciência da computação pela reputada Brown University, nos EUA.
O que eu gostaria de discutir aqui hoje não são os aspectos éticos do uso de IA para projetos de criação. Por exemplo, se seria moralmente justificável utilizarmos essas ferramentas por: seus custos energéticos e ambientais; pelas práticas eticamente (se não legalmente) questionáveis do uso de obras artísticas (algumas até recentemente protegidas por direitos autorais) no treinamento desses sistemas; ou ainda, pelas práticas claramente condenáveis às quais recorrem algumas empresas para esses treinamentos, como a contratação de exércitos de trabalhadores em países em desenvolvimento, por vezes expostos a enormes quantidades de material perturbador e por salários irrisórios. A reflexão central deste texto é essencialmente sobre como nosso contato com esses sistemas pode alterar a nossa percepção e concepção de mundo.
Suponhamos, para efeito de hipótese, que um grande modelo de linguagem fosse de fato uma forma nova e alienígena de inteligência. Se assim fosse, essa seria uma forma radicalmente diferente da nossa. Em primeiro lugar, uma forma de inteligência incorpórea e, portanto, sem experiência real no mundo e de sentimentos como medo (inclusive da morte), fome, frio, exaustão, êxtase ou amor.
Além disso, seria uma inteligência com uma epistemologia completamente diferente: ela teria introjetado praticamente toda a informação da web, mas ignoraria qualquer noção de veracidade. E, como escrevo aqui, não se pode lidar com veracidade sem um modelo de mundo. Pela mesma ausência desses modelos de mundo ou de senso comum, esses sistemas tampouco possuem uma ontologia própria que poderíamos tentar reproduzir.
Em um ensaio muito conhecido na filosofia, chamado “Como é ser um morcego?”, o filósofo da mente Thomas Nagel disserta sobre a impossibilidade escondida nesta frase: nós nunca conseguiríamos alcançar o que é ser um morcego, pelo motivo óbvio de que não vivenciamos o mundo desde o nascimento como tal. Ou seja, trata-se de uma verdadeira impossibilidade epistêmica.
Pelo mesmo motivo, não nos seria realmente alcançável vermos o mundo do ponto de vista dessas inteligências alienígenas. A nossa comunicação não pode ser reduzida à sintaxe (um léxico e uma gramática): a semântica e a pragmática dos nossos atos de fala vêm da nossa experiência como os seres que somos, com os nossos corpos, nossos objetivos e nossa história individual e coletiva. Em resumo, se o ChatGPT fosse de fato uma inteligência, não conseguiríamos verdadeiramente nos comunicar com ela.
O que proponho aqui hoje é um tanto radical: que abandonemos a ideia de pensarmos esses sistemas como formas de inteligência. Essa é uma alegoria não só incorreta, mas também arriscada e improdutiva. Vários dos problemas atuais que temos com esses sistemas derivam dela. O termo “Inteligência Artificial” foi criado por John McCarthy em 1958 como uma escolha quase de marketing. De fato, sempre fomos fascinados por inteligências não humanas e pela possibilidade de, brincando de deuses, criarmos novas formas dela.
Na mesma época (1960), um notável pensador chamado J. C. Licklider escreveu um importante artigo chamado “Simbiose Homem-Máquina”. Foi uma visão de Licklider que eventualmente deu origem à ARPANET (a precursora da Internet), e foi a sua visão refletida nesse artigo que deu origem à ideia de Amplificação da Inteligência, ou seja, de AI, em vez de IA.
Nessa linha de pensamento, com a qual me identifico fortemente, deveríamos considerar esses novos sistemas não como formas de inteligência, mas como formas de capacidade, ou melhor, formas de empoderamento. Nessa visão, o ser humano é sempre o foco, e o que visamos desenvolver são formas de amplificação das nossas habilidades humanas, com o objetivo de perseguir projetos de interesse humano e pautados por normas éticas, culturais e legais humanas.
Ao pensarmos em Amplificação da Inteligência (AI), não precisamos refletir com a mesma seriedade e urgência sobre como resolver o problema da autonomia das máquinas e, como consequência, não precisamos nos preocupar com eventuais riscos existenciais de seres autônomos cujos valores e objetivos não estejam alinhados com os nossos.
Também não precisamos apostar em uma única tecnologia (atualmente majoritariamente aprendizagem de máquina e, em especial, grandes modelos de linguagem), afinal, diferentes capacidades podem ser desenvolvidas de maneiras distintas, cada uma alinhando de forma adequada objetivo e abordagem.
Por outro lado, com o foco ajustado, podemos realmente admirar quão sofisticadas são essas capacidades desenvolvidas nos últimos anos. Exemplos abundam nesse sentido e há muitas razões para otimismo. Temos sistemas capazes de detectar formas sutis de câncer com precisão média maior do que especialistas humanos, porém sem o objetivo de substituí-los, mas sim de emponderá-los em suas tarefas de detecção e diagnóstico.
Fomos capazes, com a ajuda desses sistemas, de resolver um problema de décadas em bioquímica, digno de um prêmio Nobel. Mesmo um sistema como o ChatGPT, se o pensarmos como um amplificador de capacidades, impressiona: como um sistema sem qualquer codificação explícita de regras gramaticais pode dominar a sintaxe humana e amplificar nossas capacidades de tradução, resumo e até mesmo de ampliação dos horizontes de pensamento (em certo sentido, uma forma de brainstorming coletivo)? Quando os custos do desenvolvimento e uso dessas capacidades são justificáveis, como disse anteriormente, trata-se de outra (e não menos importante) discussão.
Em contraste, ao adotarmos o foco em uma versão vaga de inteligência, desenvolvemos tecnologias que nem são verdadeiramente inteligentes, nem estão amplificando nossas capacidades, muito pelo contrário. Por exemplo, um estudo recente, compara a capacidade de três grupos de estudantes ao produzirem textos usando: (a) ChatGPT; (b) mecanismos de busca como o Google; (c) nenhuma ferramenta de auxílio. O estudo mostra que os alunos do grupo (a), em comparação com os outros grupos e em especial com o grupo (c), tinham engajamento cognitivo muito inferior com o texto produzido, sentiam-se menos autores dele, lembravam-se muito menos do que haviam escrito e não ativavam da mesma forma áreas do cérebro envolvidas em processos criativos.
Em outro estudo, pesquisadores demonstram que programadores experientes, ao usarem ferramentas de IA para resolução de problemas, apresentaram uma queda real de 19% na produtividade — contra suas previsões iniciais de um ganho de 20%! Esse resultado é bastante relevante porque contesta uma crença atualmente difundida de que a programação seria uma das áreas em que essas ferramentas nos trariam óbvios ganhos de produtividade.
No entanto, como qualquer pessoa com experiência em programação pode atestar, criar a versão inicial de um código é apenas uma parte pequena do esforço de construí-lo: a maior parte do trabalho está em um processo longo de adaptação desses programas, tanto para corrigir erros quanto para adequá-los a mudanças de requisitos.
Análogo ao processo de escrita de textos, programar não é simplesmente escrever um código “gramaticalmente correto” em uma linguagem de programação, mas lidar com aspectos semânticos e ontológicos ao traduzir objetivos humanos, leis físicas, sociais e jurídicas, bem como características de objetos e eventos em um conjunto de instruções para uma máquina que atuará no mundo.
As alegorias de inteligência refletidas em nossa ficção científica, do monstro de Frankenstein e HAL, passando pelos agentes de Matrix até os robôs de Isaac Asimov, são quase todas sobre seres autônomos. Proponho que esqueçamos essa alegoria do robô autônomo e inteligente, seja ele benevolente ou não.
Proponho que pensemos, em vez disso, no Homem de Ferro, aquele clássico, sem o seu agente inteligente Jarvis e sem uma armadura autônoma. Em contraste com robôs, o Homem de Ferro é um ser humano empoderado por um conjunto de capacidades, cada uma possivelmente desenvolvida com uma abordagem diferente e usando estratégias e tecnologias distintas. Esqueçamos IA e pensemos em AI.
Robert Downey Jr.
Robert Downey Jr. como Homem de Ferro Crédito: Divulgação
Voltando a Ted Chiang e ao seu texto para a New Yorker. O ponto dele no artigo é que o processo criativo requer uma quantidade enorme de escolhas. Escrever um texto é fazer escolhas individuais para cada palavra, frase e parágrafo, abandonando assim uma enormidade de outras opções. O mesmo pode ser dito da pintura, da escultura, da música e, em certa medida, até da produção de software.
O que chamamos de projeto criativo pressupõe várias escolhas que refletem essencialmente as características daquele que as faz, e ao delegarmos essa tarefa para um sistema de IA generativa, estamos abdicando a essa função essencial de criar, em prol da repetição de escolhas criativas já feitas e estatisticamente prováveis. Como dizia Philip K. Dick (outro grande autor da ficção científica): toda ficção é autobiográfica (assim como toda autobiografia é ficcional).
Para Chiang, não se pode criar sem lidar com o universo de escolhas proposto pelo meio. Em particular, a escolha das palavras que constituem um texto não é um processo burocrático de representação do pensamento, mas um processo de criação dele. De forma análoga, um dos meus escritores preferidos, o angolano José Eduardo Agualusa, disse certa vez que escreve porque precisa saber o que acontecerá com seus personagens, ou seja, escreve para descobrir o fim da história.
Eu me solidarizo com Chiang, Dick e Agualusa. Todo mês, sento-me para escrever esta coluna sem saber exatamente o que nela estará contido. Imagino que será sobre um assunto, mas, através de inúmeras escolhas que refletem (às vezes de forma inconsciente) quem sou, ela se materializa diante de mim em um processo quase psicográfico, invariavelmente diferente do que eu antecipara. Eu também escrevo porque preciso saber o fim da história.

Giancarlo Guizzardi

E professor catedratico de Ciencia da Computacao na Universidade de Twente, na Holanda, onde dirige um departamento de pesquisas em ciencia de dados, inteligencia artificial e seguranca cibernetica. Natural de Vitoria, neste espaco, traz novidades e faz reflexoes sobre os avancos da Inteligencia Artificial

Viu algum erro?
Fale com a redação
Informar erro!

Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rapido possível! Clique no botão ao lado e envie sua mensagem

Fale com a gente

Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta

A Gazeta integra o

Saiba mais

Recomendado para você

Alliança, casados, idosos
Políticas públicas para idosos: pauta para o debate eleitoral
Victor Pignaton
Capixaba estreia com vitória no Roland Garros Junior Series
Fluminense x Independiente Rivadavia, pela Libertadores
Fluminense leva virada do Rivadavia e vê pressão aumentar na Libertadores

© 1996 - 2024 A Gazeta. Todos os direitos reservados