Seleção e tradução de Júlio Marques Mota
15 min de leitura
Texto 26 – Os Nossos Amos Supremos, as Folhas de Cálculo
Publicado por
em 29 de Maio de 2025 (original aqui)
Abaixo comentário de Bradford Delong

Passaram-se dois anos desde que a OpenAI lançou o ChatGPT e o pânico se instalou. Dois anos de títulos destacados nos media sobre a IA — um tema especializado e marginal, reservado a filmes de ficção científica excêntricos durante cerca de 80 anos antes — e dois anos de especulação confusa e desordenada sobre “inteligência artificial geral” (IAG), uma ideia vagamente definida de raciocínio “equivalente ao humano”, mas ainda assim é maquínico. Os Modelos de Linguagem de Grande Escala (LLMs), capturam e geram o que sempre considerámos uma característica essencialmente humana: a linguagem, abalando profundamente a nossa perceção histórica da nossa própria espécie. No entanto, as suas competências são acompanhadas por uma falta de inteligência e até mesmo pela ausência da consistência que sempre esperamos das máquinas computacionais.
Enquanto uma nova onda de discussões sobre IAG domina o debate no terceiro ano dos LLMs, uma forma reveladora de IA Realmente Existente desmente o exagero: o Departamento de Eficiência Governamental de Elon Musk, um ataque desleixado, violento e ainda assim banal ao código-fonte e à vasta rede de dados pessoais do governo federal. Enquanto esperamos pela IAG — e enquanto somos distraídos por debates intermináveis e infundados sobre ela —, a realidade da IA moderna mostra-se claramente na forma da mais tediosa crise constitucional imaginável. Em vez de inteligência de máquina, a IA é uma forma avant-garde de burocracia digital, que aprofunda a dependência de nossa cultura em relação às folhas de cálculo.
O discurso está a servir de cobertura para este ataque desastroso. Kevin Roose, colunista de tecnologia do New York Times, recentemente explicou porque razão é que está a ‘sentir a AGI’ (Inteligência Geral Artificial). (Infelizmente, as razões de Roose parecem resumir-se a: ‘Eu moro em São Francisco’). Da mesma forma, Ezra Klein, das páginas de Opinião do jornal, acha que o governo sabe que a AGI está a chegar. E o estatístico Nate Silver sugere que precisamos ‘encarar o problema da IA’. O etnógrafo e jornalista da internet Max Read chamou a essa onda de crentes em IA de ‘o contra-ataque à reação contra a IA’, uma resposta ao ceticismo anti tecnologia que vimos nos últimos anos. A posição, de acordo com Read, é que a IA ‘é bastante poderosa e útil, e mesmo que a odiemos, muitos recursos e dinheiro estão a ser investidos nela, por isso é importante levá-la a sério em vez de descartá-la de imediato’. Isso está longe da caracterização pejorativa dos Modelos de Linguagem de Grande Escala (LLMs) como o ChatGPT como ‘papagaios estocásticos’ (que remisturam e repetem a linguagem humana) ou como ‘extravagantes preenchimentos automáticos’. Estes sistemas são muito mais capazes — e mais perigosos — do que os céticos os fazem parecer. Desmistificar o mito da sua inteligência não nos isenta de prestar muita atenção ao seu poder.
Em vez de fornecer a tão alardeada inovação e eficiência associadas ao Vale do Silício, os sistemas de IA geram mais confusão do que clareza. Eles são um mecanismo de enfrentamento para uma sociedade global que funciona com conjuntos de dados digitais grandes demais para serem compreendidos, complexos demais para serem desvendados manualmente. Alimentando-se de uma quantidade impressionante de dados digitalizados, eles são uma ferramenta específica para esses dados e o seu formato tabular. Quando pensamos em IA, devemos pensar menos em O Exterminador do Futuro 2 e mais na série da TV Severance, em que funcionários de escritório procuram “números maus” com base apenas em vibrações.
Um LLM nada mais é do que uma matriz destilada de valores que representam palavras. Os modelos que todos conhecemos agora — ChatGPT, Claude, Gemini, Grok — têm muitas partes móveis, mas o seu elemento central é um grande conjunto de linhas e colunas que é o resultado de milhares de milhões de dólares em treino. Os dados de treino estão na ordem de 6 a 10 milhões de milhões de tokens (incluindo palavras, letras e outros símbolos como ‘&’, ‘-ing’ e ‘3’) — ordens de magnitude acima do que alguma vez os humanos usaram para qualquer finalidade— e eles só existem hoje por causa da expansão planetária da internet. Usando todos esses dados de treino, poder-se-á criar um robô que responde a perguntas humanas, obtém informações, gera poesia, memorandos e qualquer outra coisa que desejar, e que efetivamente parece mágica. Ter-se-á assim um modelo de IA que parece AGI.
Se — como aconteceu entre o início de 2023 e o final de 2024 — as pessoas pararem de sentir aquela magia, o leitor também pode ajustar o seu modelo. Em vez de apenas responder a solicitações e consultas, você pode instruí-lo a gerar várias respostas e então imprimir os seus “pensamentos” enquanto escolhe a melhor. Este novo modelo poderia fazer coisas divertidas, como preencher um pedido no Instacart [aplicativo de compras] ou reservar umas férias. E essas são coisas que agentes fazem então – após uma nova rodada de treino e uma nova rodada de financiamento de venture capital – todos voltarão a sentir a AGI (Inteligência Geral Artificial) novamente.
Duas tendências, igualmente equivocadas, dominam o discurso sobre a IA hoje. A primeira, como observa Read, é que os críticos ridicularizam a IA como uma ferramenta do capitalismo e um golpe dos oligarcas da tecnologia, sem explicar o seu poder. A outra, que chamarei de “a falácia do desempenho”, confunde indicadores de referência com inteligência. Até superarmos esse pas de deux de análise superficial, não seremos capazes de enfrentar o problema real da IA hoje.
A falácia do desempenho
Em 1950, Alan Turing propôs uma maneira simples de determinar se uma máquina poderia pensar: faça-lhe algumas perguntas. Se você não conseguisse discernir se estava a falar com uma máquina ou não, deveria admitir que ela é inteligente. Esse jogo ficou conhecido como o “Teste de Turing”, e, até onde sei, ninguém jamais ficou satisfeito com ele.
A ideia de Turing era que, quando decidimos que alguém é inteligente, não é porque sabemos disso, mas porque presumimos. Eu não peço para ver como é que o seu cérebro funciona para determinar se você é inteligente; eu simplesmente penso em si como um ser humano. A definição de inteligência que surge disso não é, de facto, uma definição — e é por isso que a IA permanece permanentemente dividida entre duas formas de interpretar o que Turing quis dizer.
A primeira forma é de acordo com o parâmetro de referência [benchmark]. Todo o novo modelo lançado atualmente é testado numa série interminável de limiares de desempenho com siglas sofisticadas (ARC-AGI, uma série de quebra-cabeças difíceis, é uma popular atualmente). Cada conjunto de resultados dos parâmetros de referência é comparado com tentativas anteriores: diz-se que um novo modelo alcança 87% onde o melhor anterior era 59%, mesmo que ninguém consiga explicar o que essas percentagens significam. Se o modelo de “raciocínio” 03 da OpenAI marca 87% no ARC-AGI, isso significa que ele é 87% inteligente? “87% Inteligente” é uma ideia coerente? No mundo da cultura pura de parâmetros de referência, essas perguntas não importam e nem podem realmente ser feitas. O sistema está a ser otimizado para algo que se assemelha ao que seres inteligentes (humanos) fazem, então há pouco espaço para ceticismo. A versão mais extrema dessa avaliação de referência é, sem dúvida, o Prémio Loebner, uma competição que durou 30 anos e premiou com uma grande quantia o robô de conversação mais convincente. O seu critério de “inteligência” foi baseado num comentário casual de Turing: que um robô de conversação que enganasse um humano em aproximadamente dois terços das vezes seria considerado inteligente.
Mas não está claro que Turing realmente pretendesse que esse, ou qualquer outro critério, determinasse o que é inteligência ou quem deveria ser considerado inteligente. Em ‘Computing Machinery and Intelligence’, ele inventou vários diálogos entre si e um computador fictício do futuro, nos quais pedia à máquina que resolvesse problemas matemáticos, jogasse xadrez e compusesse um poema sobre a Ponte Forth, na Escócia. Essas transcrições de conversas imaginárias — juntamente com ideias como a de uma máquina precisar de ‘saborear morangos com creme’ — mostram que Turing pensava na inteligência de forma holística. Esta segunda maneira de definir a inteligência é negativa e, talvez surpreendentemente, não tem nada de técnica. A conversa era o limite impossível de ser medido. E, embora os LLMs (Modelos de Linguagem de Grande Escala) não possam provar que são capazes de apreciar algo, certamente podem dizer que são — e com uma linguagem que baralha por completo a própria ideia do Teste de Turing na sua forma padronizada.
A cultura da avaliação de referência contribui para o carácter de variedades da tecnologia hoje, com os seus demos, personalidades de entretenimento e truques. Todo esse espetáculo alega ser sobre desempenho. O teu novo iPhone é mais rápido, melhor, mais forte. A análise de dados torna tudo melhor, das finanças aos desportos. A ideia é que o desempenho seja parte de um todo maior que resulta em inteligência, ou algo parecido. Mas ficar preso a essa questão é o que nos distrai do verdadeiro efeito da IA. E se essa noção de que desempenho demonstra substância for, ela mesma, uma falácia?
O xadrez foi uma obsessão dos engenheiros de IA, desde o pai da teoria da informação, Claude Shannon, até ao momento em 1997 em que o Deep Blue da IBM venceu o campeão mundial Garry Kasparov. Essa máquina realizou o que nenhum humano consegue: uma partida de xadrez quase perfeita. Naquela época, já estávamos perante cerca de quatro décadas no projeto da IA. Decidimos que o Deep Blue era um companheiro inteligente para os humanos na Terra? Claro que não. Não há uma única habilidade que constitua a inteligência. O desempenho, em primeiro lugar, é um substituto fraco para a inteligência.
Penso que devemos designar o problema central da AGI— e, em certa medida, da própria IA— como ‘a falácia do desempenho’.
A falácia do desempenho ocorre quando confundimos otimização com a própria inteligência. Em vez de perceber isso, os engenheiros de IA— e os media — tendem a avançar para um novo parâmetro de referência. O xadrez, afinal, é altamente rígido e lógico! Mas o antigo jogo chinês Go certamente exigiria inteligência para um desempenho de elite— certo? Quando a rede neural AlphaGo derrotou Lee Sedol, um dos melhores jogadores de Go do mundo, em 2015, tivemos uma nova vaga de especulação, alvoroço e pânico baseados na falácia do desempenho—mas ninguém acha que o AlphaGo é inteligente. E assim seguimos, andando em círculos, durante a maior parte do século.
O inverno de 2023 pareceu diferente, mesmo para aqueles já acostumados ao alvoroço em torno da IA. De repente, tínhamos uma máquina que fazia o que Turing, talvez acidentalmente, tenha sugerido que nos convenceria da sua inteligência. Tínhamos uma máquina capaz de produzir linguagem e escrever textos que respondiam a um humano em diálogo. Quando Sócrates condenou a escrita, dizendo que ela destruiria a capacidade de memória e deixaria os humanos cognitivamente prejudicados, era justamente a incapacidade dos textos de responderem aos seus leitores, de manter um diálogo, que ele apontava como desvantagem daquela então nova tecnologia. Com os LLMs (Modelos de Linguagem de Grande Escala), de repente tínhamos um competidor numa arena que ocupamos sozinhos desde sempre: a linguagem.
Os humanos definiram-se como o animal com linguagem quase tanto como pela sua inteligência — o homo sapiens precisa de falar para ser sapiens de facto. A frase de Aristóteles para o ser humano — o “animal racional” — usa o termo “logos”, que significa tanto a centelha da inteligência como a palavra. Modelos de linguagem de grande escala (LLMs) parecem subtrair-nos essa singularidade nesse aspeto. Eles são uma das formas mais inquietantes de tecnologia da nossa história porque nos respondem com fala. Mas o discurso sobre a inteligência artificial geral (AGI) falha em reconhecer que essa fala não é necessariamente inteligente. Mesmo quando um LLM passa no Teste de Turing, não nos podemos permitir acreditar nessa falácia. Como argumenta o matemático Benjamin Recht, os critérios usados para avaliar LLMs geralmente não fazem sentido diante do funcionamento real dessas máquinas. Isso ocorre porque a avaliação da linguagem nos arrasta para toda a história da filosofia, para a metafísica de quem somos, o que é inteligência e como ela se relaciona com a linguagem.
Foi relativamente fácil resistir à confusão até que se descobriu que modelos de IA podiam capturar e gerar linguagem. O ChatGPT e outros modelos de linguagem de grande escala (LLMs) criam a inquietante sensação de que aquilo que separa os humanos de todos os outros seres já não nos pertence. Por isso, é ainda mais crucial perceber que o que se toma por inteligência é, na verdade, um documento cultural de proporções inimagináveis — um registo das crenças, ações e comunicações humanas. A cientista cognitiva Alison Gopnik chamou aos LLMs uma “tecnologia cultural” por essa razão: são incapazes de serem criativos da mesma forma que a inteligência humana. Mas grande parte do que acontece no mundo, da nossa história e da nossa política, é cultural nesse sentido. E se não desviarmos o olhar da ambição de “criar uma inteligência” e o voltarmos para as reais — e estranhas — consequências culturais da burocracia digital, incluindo a condição de que a IA é tão poderosa quanto é, permaneceremos confinados de maneira irracional em subtilezas metafísicas que obscurecem as atividades reais dos sistemas de IA. Tanto as tentativas comerciais de construir uma inteligência artificial como as tentativas científicas de modelizar e entender a inteligência obscurecem o facto de que a IA é uma extensão — de facto, quase uma universalização — da burocracia digital.
A IA é a cultura da folha de cálculo em hipervelocidade
É notável que os novos defensores da AGI (Inteligência Artificial Geral) — Roose, Klein, Silver — trabalham em setores onde a IA tende a automatizar ou transformar radicalmente o trabalho quotidiano. Diversos meios de comunicação jornalísticos importantes, nomeadamente o The Atlantic, firmaram acordos com empresas de IA, e já vimos vários exemplos de artigos gerados por IA sendo apresentados como se tivessem sido escritos por humanos. E não há dúvida de que a IA eliminará muitos empregos na área de análise de dados. O próprio Silver provavelmente está seguro — ele agora é um autor de livros importantes — mas mesmo aqueles que permanecerem verão grandes reformulações nos fluxos de trabalho, à medida que os modelos que hoje pensamos principalmente como robôs de conversação passarem a intervir na interpretação, produção e análise de dados. Na verdade, todo o trabalho de escritório, todo o trabalho intelectual — desde funções secretárias e administrativas até cargos executivos no topo das empresas — tende a mudar. Isso porque o trabalho, assim como todos os outros aspetos das nossas vidas, foi transformado em dados.
Quando falamos em “dados”, tendemos a imaginar uma folha de cálculo enorme cheia de números sem sentido — algo escondido em algum lugar que exige técnicas sofisticadas e especialistas treinados para lidar com isso. Mas toda a folha de cálculo é sobre alguma coisa: desde o seu orçamento até à lista de cursos principais e secundários que mantenho para o departamento na minha universidade, passando pelos preços do mercado de ações, e assim por diante. As linhas e colunas precisam ter nomes; e, muitas vezes, colocamos simples palavras em inglês nas caixas, em vez de dados numéricos. A cultura dos dados diz respeito justamente a esse ir e vir entre o que os números significam e o que o processamento desses números nos revela. Traduzir entre matemática e linguagem é, de muitas maneiras, a base da sociedade moderna.
Pense na minha lista de cursos principais e secundários. Não posso usar nenhuma das funções matemáticas do Excel nesses nomes, endereços de e-mail e datas previstas de formatura. Uso a folha de cálculo, nesse caso, como uma unidade de armazenamento. As informações armazenadas ali não podem ser compreendidas ou interpretadas pelas funções da dita folha de cálculo. (Pode-se dividir por categoria, como “primeiros nomes na Coluna A”, mas o seu significado não pode ser transformado de forma informativa.) Só um ser humano pode fazer isso. É aí que entra o LLM
Podemos pensar em todo o texto da internet como sendo colocado exatamente numa dessas unidades de armazenamento quando um LLM é treinado. A nova capacidade da IA — que estamos a confundir com inteligência — é uma capacidade geral de traduzir entre palavras e dados, e entre dados e palavras. Mas onde o leitor, um ser humano, converte os resultados de qualquer processamento de dados, de novo em termos de consequências no mundo real, em linguagem, no passado — “os resultados do quarto trimestre mostram que devemos considerar reduzir a distribuição no Nordeste”, por exemplo — agora você tem uma ferramenta que faz essa parte do trabalho por nós. Os LLMs fornecem literalmente a função da linguagem que a burocracia exige. Podemos chamá-los de uma folha de cálculo semântica, uma ferramenta que nos permite interagir com dados, e até criar código, com nada mais do que uma solicitação.
Não é por acaso que, de longe, o maior conjunto de dados produzidos pela internet seja o texto. Os LLMs (Modelos de Linguagem de Grande Escala) atualmente são treinados com algo em torno de 10 milhões de milhões de símbolos de texto — uma quantidade impressionante de linguagem. Isso pode ou não capturar perfeitamente o que é a linguagem, mas o que certamente faz é transformar dados e linguagem numa via de duplo sentido. Durante muito tempo conseguimos usar softwares como folhas de cálculo para manipular números. De repente, tornou-se possível converter números em linguagem e vice-versa. Isso resolve um problema que atormenta as folhas de cálculo — e os computadores em si — desde a sua invenção.
Não devemos confundir essa capacidade com inteligência — não devemos cair novamente na falácia do desempenho-, pois isso mantém-nos distraídos enquanto a nossa cultura de dados entra numa fase genuinamente nova e bastante preocupante. Poderíamos chamá-la de “cultura de folhas de cálculo em hipervelocidade”: um mundo em que todos os dados podem ser traduzidos em linguagem resumida, e toda linguagem pode ser convertida em dados otimizados com nada mais além de um pedido. Mas, enquanto as folhas de cálculo tinham funcionalidades limitadas, os LLMs atuam como tradutores universais nesse mesmo campo. Eles têm muitas falhas, mas essa capacidade central representa uma mudança radical no mundo mundano da burocracia moderna.
A burocracia tem sido sempre a função de gerir a intermediação entre dados e palavras, números e memorandos, contabilidade e contas. A partir da Revolução Francesa, a quantidade de dados coletados começou a acelerar, exigindo dispositivos que pudessem ajudar os burocratas na parte computacional dos seus trabalhos. O filósofo da ciência Ian Hacking situa o que chama de “avalanche de números impressos” nas décadas de 1820 e 1830, quando os dados demográficos e industriais cresceram exponencialmente. De certo modo, os modelos de linguagem (LLMs) fecham esse ciclo, criado por um desequilíbrio entre números demais e palavras de menos, compreensão de menos. Os computadores ajudaram-nos a lidar com os números, mas não a interpretá-los. Os LLMs oferecem-nos pelo menos a ilusão — e não é certo que tenhamos alguma forma melhor ou mais clara de lidar com a enorme quantidade de dados semânticos e numéricos no mundo — de resumir, compreender e reconstituir essa avalanche, que desde então se tornou um dilúvio.
Por outras palavras, para o mundo digital limitado, mas vasto, dos dados e das operações logísticas que lhes confiamos, os LLMs funcionam como uma espécie de linguagem universal genérica — algo que parece mágico, apesar de carecer de qualquer centelha de inteligência. O único outro sistema que já foi capaz de realizar os tipos de conversas entre tipos de dados que os LLMs realizam é a mente humana — daí a falácia. Números e palavras foram sempre o canal combinado da burocracia moderna, e há potencialmente perceções profundas a serem extraídas dessa nova relação na IA (este é o tema do meu próximo livro sobre LLMs). Mas essas perceções terão que surgir ao mesmo tempo em que lidamos com as consequências políticas reais da implantação desenfreada dessa tecnologia que já permitimos.
O Controlo da Burocracia é Mais Profundo que a Política
Musk está agora a levar a sua visão apocalíptica para bancos de dados federais que contêm não apenas informações sobre cidadãos e organizações, mas também o poder de iniciar e de lhes interromper pagamentos. Segundo relatos, Musk está-se a afastar do projeto, mas isso não muda o quão claramente a agência demonstra para que serve a IA. A sua iniciativa DOGE é, em muitos aspetos, a demonstração mais clara do que a IA tem sido até agora: um lobo burocrático vestido com a pele de cordeiro da inovação e da “inteligência”.
À medida que o DOGE tem ganhado acesso a vários departamentos federais, parte de seu objetivo declarado é introduzir “agentes de IA” nos sistemas. Como escreveu o cientista político Henry Farrell sobre esse processo, os bancos de dados do governo realmente precisam ser atualizados com urgência. O DOGE promete “inovação” enquanto Musk alardeia que está simplesmente a “apagar” agências inteiras e conjuntos de pagamentos aos seus inimigos políticos. Isso só é possível por causa da infraestrutura digital que já temos — e onde ela não existe, o DOGE pretende criá-la.
Na década de 1980, quando a aprendizagem da máquina ainda estava a dar os seus primeiros passos científicos, alguns dos seus pioneiros especularam que grandes bases de dados poderiam ser analisadas usando redes neurais. Essas redes, diziam eles num exemplo hipotético, talvez pudessem prever de forma independente quais os nomes de um conjunto pertenciam aos “Jets” e quais os pertencentes aos “Sharks”, em referência aos gangues do musical West Side Story. Essa sugestão bem-humorada, acompanhada de um gráfico, transformou-se numa realidade assustadora num mundo onde a empresa de análise de dados Palantir não apenas cruza nomes, mas também rostos, filiações a gangues, pontuações de reincidência e mais. A capacidade de associar imagens, textos e dados — e de derivar previsões sobre o comportamento humano a partir disso — deve ser tratada com extrema cautela. No entanto, a intenção declarada da Palantir de colaborar com os aparatos de segurança nacional de um governo que agora deporta imigrantes — e, aparentemente, cidadãos — sem se importar com a precisão sugere que a “inteligência” da IA é apenas uma história de fachada para algo muito mais profundo e perigoso.
Em nenhum lugar essa intenção é mais clara do que na recente “maratona de programação” em que a Palantir e a DOGE colaboraram, com o objetivo de criar uma interface de programação de aplicações (API) de uso geral para o IRS e seus dados. Respondendo à exigência da Casa Branca de que o governo “elimine os silos de informação”, os dois grupos estão a tentar criar um modelo de como interagir com todas as informações sobre os cidadãos num único banco de dados — um projeto que faz com que o programa “Total Information Awareness” da era George W. Bush, já orwelliano, pareça uma perfeita ingenuidade. O objetivo de criar essa API é libertar o verdadeiro poder dos modelos de linguagem de grande escala (LLM). A inteligência artificial de baixa qualidade que o leitor dispõe nas suas redes sociais não é a questão principal; a questão principal, em vez disso, é a capacidade de dizer: “Faça-me uma lista de todos os cidadãos que são marxistas, corte os seus pagamentos e notifique o ICE sobre a sua localização”.
Se o leitor deixar de lado toda a linguagem especulativa e mística sobre “inteligência” e “raciocínio”, fica fácil perceber que esse tipo de tarefa é o que normalmente chamaríamos de burocracia. O poder, o perigo e os limites da IA estão todos nesse mundo banal de linhas e colunas. É fácil não perceber isso, porque passámos as últimas três décadas a transformar praticamente o mundo inteiro numa folha de cálculo gigante. Com tudo — desde as variações diárias da sua frequência cardíaca e tendências financeiras até aos tiques da fala e da cultura — pré-formatado para um modelo de IA, o poder dessa ferramenta torna-se imenso. Quando o engenheiro de IA vencedor do Prémio Turing, Yann LeCun, foi ao X (antigo Twitter) para descrever as suas expectativas um tanto moderadas para o futuro da tecnologia, Musk respondeu: “O nosso deus digital virá na forma de um arquivo csv”, fundindo ironicamente um formato comum de dados (valores separados por vírgula) com a noção de ficção científica de uma IA todo-poderosa.
Musk veio a Washington a prometer inovação, mas está a entregar uma nova forma de burocracia, que não tem que prestar contas. Não podemos continuar a acreditar que tudo o que a “IA” toca será mais eficiente, com o seu progresso tendendo a sistemas “mais inteligentes”. (Nessa altura, já deveríamos saber que “inteligente” não significa “inteligência”; só significa “brilhante”.) Uma auditoria geral é um procedimento burocrático, algo que a IA atual é limitada demais para executar bem. Mas enquanto acreditarmos na propaganda, vai parecer uma boa ideia inserir modelos de IA nos bancos de dados que contêm o nosso seguro de saúde, os nossos pagamentos da Previdência Social e os nossos registos fiscais.
Entre aqueles que achavam que Trump causaria uma crise constitucional, poucos previram que isso aconteceria de uma forma tão entediante quanto uma folha de cálculo. Mas a verdade é que quem controla a burocracia tem um poder além até do que um processo democrático como o voto pode autorizar ou derrubar. A pretensão de entregar esse controle para as máquinas serve como cobertura para um ato político muito humano: destruir e desmantelar o governo federal usando uma ferramenta com poder sem precedentes para o conseguir.
Em vez do sonho da inteligência das máquinas, estamos a testemunhar as consequências políticas desastrosas de um sonho diferente: o de uma burocracia total que opera nos interstícios quase invisíveis do software do qual passamos a depender. A forma como esse sistema rompe elementos básicos do nosso contrato social é uma sua característica, não uma falha. Os sistemas de IA poderiam ser usados como ferramentas ao serviço da democracia. Mas isso exigiria que os entendêssemos e os tratássemos primeiro como objetos científicos e só depois como produtos comerciais. Será necessário um esforço massivo e com princípios para compreender a matemática profunda e as formas cultural-linguísticas que resultam disso, a fim de reverter a tendência atual do progresso da IA.
__________
O autor: Leif Weatherby é diretor do Laboratório de Teoria Digital da Universidade de Nova Iorque. Language Machines: Cultural AI and the End of Remainder Humanism, será lançado no próximo mês [Junho]. É professor associado de Alemão A sua investigação centra-se na teoria literária, na cultura digital e na história da ciência. As questões de interesse especial são a dialética, a semiótica, a natureza dos dados e da computação e os problemas da economia política após a Revolução Industrial. É doutorado pela universidade da Pennsylvania. (mais info aqui)
Comentário de Brad DeLong
Publicado por
em 9 de Junho de 2025 (original aqui)
“Our Spreadsheet Overlords”, de Leif Weatherby, argumenta que o fascínio por LLMs como o ChatGPT como precursores da inteligência de nível humano obscurece o seu uso real: reforçar o controle digital administrativo. Estes sistemas funcionam como “burocracia digital” —tentativas de automatizar a gestão da complexidade que, entre outras coisas, criam sumidouros de desresponsabilização. Mas estes complexos de processamento de dados—como todas as camadas de abstração – têm fugas, ocultando a falibilidade sob a aparente objetividade. O artigo de Weatherby reflete de perto a cautela de que camadas de abstração em estratégias cognitivas — seja em Economia, IA ou sistemas sociotécnicos — inevitavelmente deturpam a realidade. O aumento de abstrações já vazadas que mascaram falhas sistémicas sob o pretexto de racionalidade computacional não é um ganho, mas sim uma duplicação de ferramentas epistemológicas que falham precisamente quando são mais importantes.
Assim, pelo menos, vai a tese de Weatherby. A sua insistência de que a implantação primária da IA é burocrática e não cognitiva alinha-se com uma longa tradição de ceticismo em relação à racionalidade tecnocrática, incluindo a gaiola de Ferro de Weber e o desdém de Hayek pela presunção fatal do planeamento central. De facto: nós, economistas, sabemos bem que a necessária simplificação dos modelos é sempre acompanhada pela supressão da heterogeneidade, da nuance. Mas onde nós (pelo menos eu) frequentemente perguntamos como tapar as fugas, Weatherby insiste que as fugas são o ponto e que a abstracção é menos uma ferramenta do que uma armadilha.
Não concordo inteiramente. Sem camadas de abstração – que inevitavelmente têm fugas – a tomada de decisões colapsa sob sobrecarga informacional. A crítica central de Weatherby, se válida, tem de ser contra a alegação de que existe uma maneira melhor ou pelo menos mais cautelosa e humilde. Friedrich Hayek advertiu contra a pretensão do conhecimento em economias planificadas centralmente. Weatherby adverte contra o seu ressurgimento em burocracias descentralizadas e algorítmicas. Ambas as críticas convergem para a mesma falha: uma fé de que as abstrações, uma vez codificadas, se administrarão melhor do que nós podemos. Assim, o verdadeiro valor na análise de Weatherby não é condenar a IA como permeável, mas insistir em que enfrentemos as consequências de agir como se não fosse. Uma vez que a abstracção tem fugas, temos de institucionalizar a vigilância, não abdicar do juízo sobre as fórmulas…



