Precisamos, com urgência, como sociedade, criar um “sistema imunológico digital”, composto por uma combinação de educação, regulação, promoção de tecnologias seguras e confiáveis, e um debate público aberto e bem-informado
Públicado em
06 jul 2025 às 06:00
Colunista
Giancarlo Guizzardi
g.guizzardi@utwente.nl
Pense em uma história antiga de ficção científica sobre Inteligência Artificial. "Matrix"? "Blade Runner, o caçador de androides"? "Ela"? Que tal uma do século XIX: "Frankenstein"? Na história, amplamente conhecida, um cientista cria um robô biológico (com pedaços de restos humanos) que adquire vida, consciência, sentimentos e, em alguma medida, inteligência. O que dá vida (e todos os outros atributos) ao monstro de Frankenstein não é magia, mas a ciência.
O título original da história escrita pela inglesa Mary Shelley, em 1818, é “O Prometeu Moderno”. A referência é ao mito grego de Prometeu. No mito, Prometeu rouba o fogo dos deuses para dá-lo aos humanos. Para os gregos clássicos, o fogo representa o logos, ou seja, a lógica por trás das coisas, o conhecimento, o domínio da natureza.
Dominar a natureza era um privilégio dos deuses, e apropriar-se desse poder rendeu a Prometeu a condenação de uma prisão acorrentado em uma rocha, no qual uma águia comia pedaços do seu fígado (o órgão das emoções) que, regenerando-se durante a noite, prolongava eternamente seu sofrimento.
"Frankenstein ou o Prometeu Moderno, Mary Shelley, 1818Crédito: Reprodução
A advertência está presente em toda ficção científica ocidental sobre inteligência artificial: ao tentarmos brincar de deuses, podemos liberar forças que não conseguimos controlar. Em várias das obras citadas acima, a criatura sai do controle e volta-se contra seu criador.
Nos últimos anos, com a emergência das novas formas de IA, temos assistido a releituras desses mitos. Vários nomes ligados a grandes empresas de tecnologia e alguns cientistas conhecidos (mais notoriamente o Prêmio Nobel Geoffrey Hinton), ao mesmo tempo que continuam construindo sistemas de IA, soam o alarme catastrofista segundo o qual estaríamos próximos de um cenário como o descrito acima, ou seja, uma IA generalizada e superinteligente que, a qualquer momento, se voltaria contra nós, tomando o controle do mundo e transformando-nos em baterias biológicas.
Segundo a tempestade de ruídos da internet, já estaríamos inclusive vivendo o início disso: esses sistemas estariam reescrevendo partes de seus próprios códigos para que não possamos desligá-los, e chantageando seus criadores quando estes ameaçam fazê-lo.
Há aqui um excesso de antropomorfização desses sistemas. Eles não têm consciência ou emoções e, em particular, não têm medo de deixar de existir. Aliás, em uma passagem brilhante de “Androides Sonham com Ovelhas Elétricas?”, livro que inspirou o filme Blade Runner, o autor Philip K. Dick descreve um androide que, no momento de sua morte, simplesmente aceita seu destino, sem medo ou resistência.
"Andróides Sonham com Ovelhas Elétricas?", livro de Phillip K. Dick, 1968Crédito: Reprodução
Isso ocorre exatamente porque, ao contrario de nós, ele não carrega a pressão de milhões de anos de evolução biológica, que o obrigaria a continuar lutando pela preservação de algo maior que si mesmo, mesmo quando não há qualquer esperança.
Os nossos sistemas atuais estão muitíssimo aquém dos androides de Philip K. Dick. Os riscos são outros, mas eles existem, são gravíssimos e, enquanto nos distraímos (ou somos distraídos) pela cortina de fumaça das supostas superinteligências prestes a nos dominar, esses riscos reais seguem negligenciados e crescendo de forma alarmante. A verdade é que não precisamos de uma inteligência artificial generalizada para causar sérios danos a indivíduos e à coletividade, e até mesmo nos oferecer riscos existenciais.
Cena final do filme "Blade Runner"Crédito: Reprodução
O problema não está nos sistemas de IA isoladamente, mas na combinação sistemas-indivíduos-sociedades. Em outras palavras, o risco não vem de uma máquina superinteligente com interesses conflitantes aos nossos, mas da junção, por um lado, de máquinas com supercapacidade para realizar tarefas extremamente específicas, porém sem qualquer noção de normas e valores humanos, sem senso comum ou capacidade de autorreflexão, com, por outro lado, indivíduos e sociedades incapazes de lidar com essas máquinas.
Em resumo, os riscos reais emergem da conjunção entre limitações intrínsecas desses sistemas e nossas próprias limitações éticas e cognitivas, que se combinam como pedaços inertes para formar um novo monstro.
UMA DISTINÇÃO IMPORTANTE
Antes de falarmos sobre esses riscos, é preciso fazer uma distinção importante. Em inglês, temos as palavras safety e security. Em português, ambas são traduzidas como "segurança". Safety diz respeito à capacidade de um sistema de nos oferecer segurança; security, por sua vez, refere-se ao sistema estar seguro contra ameaças externas.
É claro que um sistema que não tem segurança no segundo sentido pode falhar em oferecer segurança no primeiro. Por exemplo, um carro autônomo que pode ser hackeado tem um problema de security, mas que leva também a um problema de safety, pois a perda de controle do carro para um hacker pode nos trazer riscos diretos. Os riscos de security estão ligados às limitações do sistema combinadas com nossas limitações éticas; os riscos de safety combinam limitações desses sistemas com nossas limitações cognitivas.
LIMITAÇÕES INTRÍNSECAS DOS SISTEMAS ATUAIS DE IA
Comecemos pelas limitações dos sistemas de IA atualmente em voga. A primeira delas é que esses sistemas tendem a repetir o passado. Frequentemente, as pessoas imaginam que algoritmos sejam desprovidos de emoção, preconceitos e vieses e, por isso, seriam mais adequados do que seres humanos para julgar, por exemplo, o risco de crédito de uma pessoa, a probabilidade de sua reincidência criminal ou, ainda, se ela deveria ser convidada para uma entrevista de emprego.
No entanto, esses sistemas carregam todos os preconceitos e vieses embutidos nos dados com os quais foram treinados. Se os dados de emprego no passado refletiam a contratação de um grupo em detrimento de outros (por exemplo, homens em detrimento de mulheres), o sistema tenderá a repetir isso; se, nos dados de sistemas de cálculo de probabilidade de reincidência, um grupo está super-representado (por exemplo, de uma etnia específica), o sistema também refletirá esse viés.
Além disso, ao repetirem o passado, esses sistemas não criam nada genuinamente novo, apenas combinam dados já existentes. Ou seja, eles interpolam, mas não extrapolam. Parafraseando o poeta Cazuza, são “museus de grandes novidades”. São capazes de reproduzir desenhos no estilo de Maurício de Sousa ou do estúdio Ghibli, músicas ao estilo de Bach, textos no estilo de Fernando Pessoa. Reproduzem cópias pálidas e sem alma dessas obras de arte, as quais pressupõem a preexistência dos gênios que as criaram.
Pela sua velocidade e capacidade de recombinação, esses sistemas geram um oceano de dados sintéticos e, em breve, teremos máquinas treinadas majoritariamente com dados gerados por outras máquinas. Isso não apenas amplifica a quantidade de erros e “alucinações” desses sistemas, como, à medida que delegamos a eles mais e mais tarefas humanas, nos condenamos em uma câmara de eco do que já fizemos, reduzindo nossa capacidade de inovação real e de produzir novos criadores e pensamentos originais.
Além de refletirem o passado e seus vieses, esses sistemas são incapazes de explicar por que tomam as decisões que tomam. Do ponto de vista ético, explicabilidade está ligada à contestabilidade. Se um sistema toma decisões que afetam a vida de pessoas, essas pessoas têm o direito de saber como essas decisões foram tomadas, para eventualmente poderem contestá-las.
No entanto, esses sistemas são inerentemente incapazes de explicar suas decisões. E, mesmo que nos deem uma resposta, não temos qualquer garantia de que ela reflita, de fato, seu processo decisório.
Outra limitação essencial é sua incapacidade de lidar com situações imprevistas. O problema é que o mundo é demasiado complexo para que tenhamos dados sobre todas as situações-limite que possam ocorrer. Mais do que isso: o mundo obedece à chamada “cauda longa” ou “regra 80/20” (figura abaixo), ou seja, a maioria das situações que vivenciamos se encaixa em, mais ou menos, 20% dos tipos possíveis, mas existe uma enorme variedade de situações (mais ou menos, 80% delas) que, embora infrequentes, podem sempre ocorrer.
Exemplo de uma “cauda longa” ou regra 80-20: 80% dos casos se encaixam em 20% dos tipos de situações (em verde), enquanto 20% dos casos se distribuem em 80% dos tipos de situações (em amarelo)Crédito: Reprodução
Pense em sua experiência como motorista: 80% dos acontecimentos são recorrentes e repetitivos, mas há uma infinidade de eventos altamente improváveis que podem ocorrer (por exemplo: um morcego gigante carregando um filhote de javali passar voando diante do seu carro; ou um monomotor aterrissar de rodas para o alto na contramão e vir na sua direção). Por mais dados que adquiramos para treinar um sistema de IA, esses dados tenderão a repetir o mais do mesmo e nunca serão suficientes para antecipar todas as situações possíveis.
Explicabilidade é um componente essencial para o comportamento ético, mas não é o único. Para um sistema artificial, agir eticamente significa sempre agir em conformidade com os interesses humanos, fazendo-lhes o bem e jamais o mal. Mesmo que esses sistemas fossem capazes de raciocinar sobre os interesses humanos em suas múltiplas formas e conflitos, como não conseguem agir fora das situações para as quais foram treinados, não podem nos dar garantias de que sempre agirão de forma alinhada aos nossos interesses. Em resumo, esses sistemas não têm como nos assegurar que agirão sempre de forma ética.
NOSSAS LIMITAÇÕES COGNITIVAS
Agora, vejamos nossas próprias vulnerabilidades. Somos sujeitos a um fenômeno psicológico chamado apofenia: temos a propensão de enxergar lógica, inteligência e, por vezes, intencionalidade onde elas simplesmente não existem. Também sofremos do chamado “efeito auréola”, em que, se uma entidade demonstra competência em realizar uma tarefa X, tendemos a acreditar que ela seja igualmente competente em realizar outras tarefas de natureza similar.
Por fim, somos incapazes de raciocinar sobre a escala desses sistemas e imaginar, por exemplo, o que significa uma rede neural com 4 trilhões de nós e arestas processando informações da totalidade da internet. Essas três vulnerabilidades se combinam e se potencializam quando assistimos a um sistema de IA produzir um “novo” poema de Fernando Pessoa com 20 páginas em 10 segundos. Somos incapazes de explicar o “truque” e passamos a acreditar que uma entidade capaz de fazer isso possui uma inteligência superior e, portanto, seria capaz de fazer qualquer coisa.
Somando as limitações desses sistemas às nossas vulnerabilidades, temos uma grande classe de riscos de safety que podemos chamar de riscos de atribuição excessiva de capacidade. Delegamos a esses sistemas tarefas que vão desde dirigir nossos veículos, escrever nossos códigos, tomar nossas decisões, até nos aconselhar como terapeutas, amigos e até companheiros românticos.
Em todos esses casos, estamos superestimando esses sistemas e atribuindo-lhes tarefas que eles não podem realizar com garantia de comportamento ético. Além disso, estamos substituindo relações, capacidades e criações reais por contrapartes sintéticas, renunciando voluntariamente aquilo que nos faz humanos.
NOSSAS LIMITAÇÕES ÉTICAS E VULNERABILIDADE DOS SISTEMAS DE IA
Por fim, falemos de security. Como esses sistemas não compreendem os dados que processam, interferências maliciosas nesses dados podem facilmente alterar seu comportamento. Por exemplo, ao trocar alguns pixels em uma imagem, pode-se induzir um carro autônomo a interpretar uma placa de “PARE” como uma de “velocidade máxima 120 km/h”, ou reconhecer numa pessoa inocente a face de um criminoso.
Também é possível incluir dados que levem esses sistemas a gerar códigos com funções maliciosas ou revelar informações confidenciais de empresas e organizações. Além disso, esses sistemas podem replicar cegamente padrões usados para produzir desinformação. Isso inclui golpes virtuais (como e-mails que imitam comunicações de bancos ou órgãos governamentais para extrair dados pessoais), mas também os chamados deepfakes (fotos, áudios, vídeos e documentos falsos, porém extremamente realistas).
Uma combinação perigosa das duas coisas é a geração de notícias falsas e personalizadas, adornadas com “evidências” fabricadas em vídeo ou áudio, com o objetivo de manipular a opinião política em massa.
Vale lembrar que quase nunca adquirimos informações por percepção direta, mas sim por mediações. A maioria de nós não presenciou o homem chegar à Lua, a queda do Muro de Berlim ou o tricampeonato da seleção brasileira no México, em 1970. Sabemos desses fatos porque lemos, ouvimos ou assistimos a respeito deles.
Sem a capacidade de reconhecer a verdade, tornamo-nos incapazes de tomar decisões corretas sobre o mundo (por exemplo: o vírus SARS-CoV-2 de fato existe, e as vacinas para imunização contra ele definitivamente não contêm chips 5G). Perdemos também a capacidade de criar uma narrativa comum, sem a qual nenhuma democracia sobrevive.
Esqueçam robôs superinteligentes querendo nos transformar em baterias biológicas. Os perigos são outros, são reais, e nós somos parte do problema. Nossos riscos, enormes e cada vez mais presentes, emergem da combinação de, por um lado, nossas fraquezas éticas e regulatórias e nossa propensão à atribuição excessiva de capacidade, e, de outro, sistemas extremamente eficientes em suas funções, porém vulneráveis, repetidores de vieses e clichês, incapazes de compreender de fato os dados que processam, de explicar suas decisões e de agir eticamente diante de situações imprevistas.
Precisamos, com urgência, como sociedade, criar um “sistema imunológico digital”, composto por uma combinação de educação (inclusive alfabetização digital), regulação, promoção de tecnologias seguras e confiáveis, e um debate público aberto e bem-informado.
Sem isso, não apenas deixaremos de colher os inúmeros benefícios do fogo dos deuses, como podemos estar nos condenando a correntes, em um abismo sombrio, com seus ecos e repetições, e seus muitos predadores a nos comerem as vísceras.
Giancarlo Guizzardi
E professor catedratico de Ciencia da Computacao na Universidade de Twente, na Holanda, onde dirige um departamento de pesquisas em ciencia de dados, inteligencia artificial e seguranca cibernetica. Natural de Vitoria, neste espaco, traz novidades e faz reflexoes sobre os avancos da Inteligencia Artificial