Site icon A Viagem dos Argonautas

Espuma dos dias — “Inteligência artificial – um falso profeta” , por Jacob Howland

Seleção e tradução de Francisco Tavares

8 min de leitura

Inteligência artificial – um falso profeta

 Por Jacob Howland

Publicado por  em 15 de Abril de 2023 (original aqui)

 

Atingimos o pico da idolatria (VCG/VCG via Getty Image)

 

A idolatria é intrinsecamente paradoxal. Embora escravize o homem a desejos indisciplinados e a falsidades agradáveis, ela nasce da vontade de domínio. É essencial que o Bezerro de Ouro não possa falar, e muito menos fazer as montanhas fumegarem e os céus trovejarem, como Deus faz no Sinai. Ele foi construído para justificar o comodismo, não para o limitar.

No entanto, nos três milénios desde que a história do Êxodo foi contada pela primeira vez, tornámo-nos mais sofisticados. Os ídolos mais sedutores da actualidade respondem, embora apenas com a voz ventríloqua de seres humanos, fabricada a partir de um mar digital de balbúrdia.

Estou a referir-me à Inteligência Artificial avançada, que suscita emoções que vão do pavor à exultação. No mês passado, um modelo de IA chamado GPT-4 ficou no percentil 90 no Exame Uniforme da Ordem dos Advogados, fazendo com que os advogados temessem pelos seus empregos. Os profissionais de medicina estão preocupados com a capacidade da IA para fabricar artigos de investigação e o ChatGPT foi implicado em vários casos de difamação. Entretanto, agências como o Departamento de Defesa e a Fundação Nacional de Ciência estão a gastar o dinheiro dos contribuintes no desenvolvimento de maquinaria de “nível militar” alimentada por IA para censurar informação e “automatizar a produção e disseminação de propaganda estatal”.

Mas embora o governo esteja a apostar tudo na IA, alguns especialistas têm sérias dúvidas. Citando “riscos profundos para a sociedade e para a humanidade”, mais de 1000 líderes tecnológicos e investigadores apelaram a uma pausa de seis meses no desenvolvimento da IA. Um fundador desta área vai mais longe, defendendo que é necessária uma moratória global completa para evitar a morte de “literalmente toda a gente na Terra”. Estas sugestões colocam uma questão muito séria que parece uma anedota: O que é que o Xi faria?

Ao entrarmos no admirável mundo novo da IA, podemos pensar no que a tradição ocidental nos pode ensinar sobre as questões mais profundas levantadas pelos sofisticados processos de aprendizagem automática. E a mais fundamental delas pode ser a idolatria – um problema que, como os antigos hebreus e gregos compreenderam, é político e psicológico, para além de teológico.

O termo “idolatria” deriva de duas palavras gregas. Uma – eidōlon – é uma forma insubstancial, como os “fantasmas de mortais ultrapassados” que Odisseu encontra em Hades. Latreia é uma espécie de servidão: o estado de um trabalhador contratado, ou o serviço aos deuses que constitui adoração. Os ídolos, informa-nos a Enciclopédia Judaica, “são imagens de escultura, torrões disformes e, sendo obra das mãos dos homens, incapazes de falar, ver, ouvir, cheirar, comer, agarrar ou sentir, e impotentes tanto para prejudicar como para beneficiar”.

Deus começa a sua proclamação do Decálogo, no Êxodo 20, proibindo a veneração de ídolos: “Não terás outros deuses além de mim. Não farás para ti nenhuma semelhança esculpida, nenhuma imagem do que há em cima nos céus, nem em baixo na terra, nem nas águas debaixo da terra. Não te curvarás diante delas e não as adorarás”. Tendo acabado de libertar os israelitas do cruel despotismo do Faraó, Deus adverte-os para que não continuem a escravizar-se às suas próprias obras: coisas dotadas, pelo mistério psicológico do auto-engano colectivo, de um poder e de um sentido aparentemente independentes.

A auto-escravização da idolatria é um tema a que os pensadores posteriores regressam repetidamente. Na Caverna de Platão, os prisioneiros ficam encantados com as sombras dos ídolos manipulados por marionetistas invisíveis. Marx discute o “fetichismo da mercadoria” no capitalismo e a alienação do trabalhador em relação aos produtos do seu trabalho. E não faltam livros de ficção científica que descrevem futuros distópicos em que os seres humanos são tiranizados por máquinas.

Mas porque é que os seres humanos erguem ídolos e se curvam perante eles? A Bíblia aborda esta questão quando, na ausência de Moisés, os israelitas rebeldes obrigam Aarão a “fazer-nos deuses”:

“E Arão disse-lhes: ‘Tirai as argolas de ouro que estão nas orelhas das vossas mulheres, dos vossos filhos e das vossas filhas, e trazei-mas’. Então todo o povo tirou as argolas de ouro que estavam nas suas orelhas e trouxe-as a Aarão. Ele tomou-as das suas mãos e moldou-as num molde e fez delas um bezerro de fundição. E eles disseram: ‘Estes são os teus deuses, ó Israel, que te fizeram subir da terra do Egipto'”.

 

O significado desta passagem é indirectamente elucidado pelo dramaturgo ateniense Aristófanes, que não conhecia a Bíblia, mas compreendia o segredo da teogénese pagã. Em “As Nuvens”, um homem que pretende livrar-se das suas dívidas vai à escola de Sócrates para aprender a arte do discurso injusto. Quando este caloteiro jura pagar-lhe, Sócrates responde-lhe: “Por que tipo de deuses vais jurar? Porque, em primeiro lugar, os deuses não são moeda corrente [nomisma, palavra do grego antigo para dinheiro] para nós”. A palavra grega para moeda está etimologicamente relacionada com nomos: lei, costume ou convenção. Os deuses, por outras palavras, são produções humanas. Os tetradracmas de prata atenienses traziam a imagem da deusa padroeira da cidade; cada comunidade, diz Sócrates, cunhou as suas próprias divindades, que funcionam como moeda de troca na sua economia política e teológica apenas enquanto o seu valor continuar a ser amplamente reconhecido.

O fabrico do Bezerro de Ouro por Aarão é precisamente um acto de cunhagem – um acto que, na perspectiva da Bíblia, é semelhante à contrafacção. Antes de Moisés poder fazer descer da montanha a Palavra divina, inscrita em tábuas, os israelitas – uma massa fundida e indiferenciada, como os seus brincos derretidos – falam em nome do deus amalgamado que encomendaram com tanta força, torcendo a frase que introduz o Decálogo: “Eu sou o Senhor teu Deus, que te fez sair da terra do Egipto”. Este acto de má-fé só parcialmente obscurece o facto de a multidão estar a adorar o seu próprio poder colectivo liberto.

Porque o que está em jogo no episódio do Bezerro de Ouro não é simplesmente se os israelitas vão viver de acordo com a lei de Deus, mas se vão conseguir criar uma história radicalmente revisionista do Êxodo. Ao declararem efectivamente que se libertaram a si próprios, os israelitas apagam todas as dívidas para com Deus e Moisés. E, para as suas mentes servis, liberdade significa licença; a auto-deificação implícita dos israelitas autoriza o banquete, a bebida e os jogos sexuais do dia seguinte. O símbolo adequado da auto-exaltação do povo é uma massa de ouro – um metal precioso que, mesmo no tempo do Faraó, era convertível nos principais objectos do apetite, incluindo o poder, a honra, o conforto e o prazer.

Actualmente, o Fórum Económico Mundial imagina que a IA nos conduzirá a uma “utopia” menos primitiva, uma Terra Prometida do século XXI em que as pessoas “passarão o seu tempo em actividades de lazer, criativas e espirituais”. Uma aposta mais segura seria drogas e robots sexuais. Há 90 anos, John Maynard Keynes profetizou, com uma precisão que parece assustadora, que as máquinas tornariam o trabalho obsoleto no espaço de um século. A perspectiva encheu-o de “pavor”, porque muito poucas pessoas foram educadas para o lazer.

A julgar pelo mau comportamento dos ricos, uma “guarda avançada… que espia a terra prometida do lazer para o resto de nós e aí instala o seu acampamento”, Keynes considerava as perspectivas “muito deprimentes”. E àqueles que, libertos do trabalho, ansiavam por não fazer mais nada para além de ouvir canções, respondeu: “a vida só será tolerável para aqueles que têm de se ocupar das canções, e quão poucos de nós sabem cantar!”

Em 2018, um artigo na Scientific American previa que a IA avançada iria “aumentar as nossas capacidades, melhorando a nossa humanidade de formas sem precedentes”. Este prognóstico ilusoriamente optimista ignora o facto de que todas as capacidades humanas tendem a atrofiar-se com o desuso. Em particular, a IA está a mudar inexoravelmente a forma como pensamos (ou não pensamos). Actualmente, os estudantes utilizam o ChatGPT para fazer os trabalhos de casa para os professores que, porventura, dependem dele para escrever as suas aulas. O que torna este cenário absurdo divertido não é apenas a ideia de máquinas a falar com máquinas, mas o facto de pessoas intelectualmente preguiçosas utilizarem um simulacro de inteligência humana para se enganarem mutuamente.

Comparado com o dom natural da inteligência humana, o tipo artificial é um oximoro, ou seja, uma combinação engenhosa de palavras cujo sentido literal é contraditório ou incongruente, como uma “imitação de couro genuíno”. A IA é uma simulação mecânica de apenas uma parte da inteligência: a capacidade de pensamento discursivo, ou a análise e síntese da informação. O pensamento discursivo lida com símbolos construídos pelo homem, incluindo símbolos numéricos e linguísticos (ou, no caso da IA, dados codificados digitalmente). Enquanto a inteligência humana pode comparar estes símbolos com as coisas que representam, a IA não o pode fazer porque lhe falta a intuição: a cognição imediata da realidade que nos enraíza no mundo e dirige as nossas energias para além de nós próprios e das operações da nossa própria mente. É a intuição, por exemplo, que nos diz se os nossos entes mais próximos e queridos são fundamentalmente dignos de confiança. (Escusado será dizer que a intuição é falível, como qualquer outra operação intelectual).

A IA não tem laços directos e concretos com o mundo real, com o qual se relaciona apenas através da notação binária. Fechada em si mesma no éter electrónico, não vive em lado nenhum, não teme nem ama nada e não tem um ponto de vista individual. Faz sentido conceder autonomia e agência a uma inteligência que não tem qualquer ligação natural com as necessidades humanas?

O ponto forte da sofisticada IA é a sua capacidade de analisar grandes quantidades de dados, agregando e desagregando partes discretas de informação de forma potencialmente significativa. Trata-se de uma capacidade promissora com aplicações em vários domínios, da medicina aos transportes. Mas as produções da IA são regurgitações artificiais de material retirado de vastos mas pouco profundos reservatórios de conteúdos digitais e manipulado de formas limitadas, pelo menos em princípio, desde logo pelas restrições dos programadores.

Isto pode ser extremamente útil quando se trata de detectar padrões de informação que, de outra forma, seriam invisíveis ao olho humano. No entanto, muitos problemas não podem ser abordados de forma significativa através da exploração de grandes volumes de dados. Se lhe forem colocadas questões de natureza ética ou política, a IA pode recusar-se a dar uma resposta definitiva ou pode procurar opiniões nas bases de dados e dar a resposta mais provável. Mas se qualquer resposta gerada desta forma é justa ou sensata só pode ser uma questão de acaso. Isto deve-se, em parte, ao enviesamento da programação, incluindo conjuntos de dados demasiado ou pouco ponderados. Quando se pede ao ChatGPT ou ao chatbot Bard da Google para avaliar Biden e Trump, por exemplo, a sua inclinação para a esquerda é óbvia. (Experimente pedir ao ChatGPT para escrever ensaios comparando cada um destes presidentes com Estaline).

Um problema mais fundamental é o facto de a aprendizagem automática não estar simplesmente equipada para filtrar a informação de acordo com medidas qualitativas mal definidas, como a justiça ou a sabedoria. Isto aconteceria mesmo que as perspectivas justas ou sensatas fossem comuns na Internet, o que não é o caso. Embora ninguém compreenda totalmente como funciona a IA avançada, o velho ditado aplica-se-lhe tanto como aos programas de computador mais simples: “Entra lixo, sai lixo”.

Na medida em que a IA se mantém dentro dos limites das suas capacidades, é porque os programadores restringiram intencionalmente a sua actividade. O que acontece quando, pelas suas próprias razões demasiado humanas – o desejo de poder, honra e riqueza; orgulho nacional; ou simplesmente o medo de perder o emprego – eliminam essas restrições? Ou quando, tendo perdido verdadeiramente o hábito de pensar por nós próprios, as pessoas em geral estiverem dispostas a conceder à IA autoridade sobre assuntos para os quais ela não está preparada? Alguém ficaria surpreendido se amanhã alguém lançasse uma aplicação de justiça baseada em IA que prometesse resolver no local questões práticas de distribuição e retribuição? Ou se, seguindo o exemplo de uma conhecida empresa de software (NYSE: ORCL), um dia tratássemos essa aplicação – ou qualquer outra destilação de opiniões agregadas gerada por algoritmos – como se fosse um oráculo?

Esse dia está a aproximar-se rapidamente, se é que já não chegou. A IA está agora a substituir o clero em rituais e cerimónias religiosas, e os católicos podem até utilizar um Chatbot de confissão. Um artigo recente que vê uma utilidade para a IA na redacção de sermões observa, no entanto, uma limitação ao emprego pastoral das máquinas: “Falar da palavra de Deus a uma congregação ou a um indivíduo requer uma relação [pessoal]”. Mas a IA é incapaz de qualquer relação directa com os seres humanos, incluindo uma que esteja aberta à possibilidade de fé. Como é que uma congregação pode confiar num líder religioso, e muito menos num Deus, que não pode retribuir essa confiança?

A experiência israelita com a idolatria terminou em desastre. Depois do episódio do Bezerro de Ouro, Moisés ordenou aos levitas que pegassem nas suas espadas e purgassem o acampamento dos malfeitores. “Mata cada um o seu irmão”, ordenou, “e cada um o seu companheiro, e cada um o seu próximo”. Não deveremos esperar uma consumação igualmente sangrenta quando, dando ouvidos à voz totalmente irresponsável da IA como se fosse a Palavra de Deus, atingirmos mais uma vez o pico da idolatria?

___________

O autor: Jacob Howland é Director do Programa de Fundações Intelectuais da UATX, vulgarmente conhecida como a Universidade de Austin. O seu último livro é Glaucon’s Fate: History, Myth, and Character in Plato’s Republic (Paul Dry Books, 2018).

 

Exit mobile version