Seleção e tradução de Júlio Marques Mota
11 min de leitura
Texto 19 – Um lado mais interessante da IA
A IA oferece algo pelo qual valha a pena aguardar ansiosamente, se a ideia de “superinteligência” soa entediante?
Publicado por
em 2 de Julho de 2025 (original aqui)
Os meus amigos geralmente são pessoas otimistas e com visão de futuro, mas falar sobre a IA deixa muitos deles desanimados. Ou a IA é mais assustadora do que outras tecnologias, ou o debate público sobre o tema falhou de alguma forma. Ou ambas as coisas.
Acho que o problema não é apenas que as pessoas têm preocupações legítimas. O que é estranho e desanimador no discurso atual sobre a IA é o vazio surpreendente onde esperaríamos encontrar uma visão positiva que servisse de contrapeso.
Afinal, não é invulgar que novas tecnologias tenham um lado negativo. Os aviões foram imediatamente reconhecidos como armas de guerra, e eventualmente percebemos que o CO₂ que emitem também não é coisa boa. Mas o seu lado positivo também é evidente: uma liberdade nova e vertiginosa de movimento pelo espaço tridimensional. Vale a pena pagar o preço? Sei lá. O bombardeio de saturação foi mau para os civis. Mas há pelo menos algo nos dois pratos da balança. Ela pode pender para um lado ou para o outro. Então, quando pensamos no voo — mesmo que acreditemos que, no geral, ele foi destrutivo —, vemos tensão e a possibilidade de mudança. Não nos sentimos apenas passivamente deprimidos.
“A ‘superinteligência’ é o lado positivo da IA?
O que as pessoas parecem querer colocar no lado ‘positivo’ da balança para a IA é uma distopia dos anos 1930, bem duramente criticada por Helen De Cruz.
Toda a conversa sobre AGI parece ser “Vai ser tão perturbador, em termos sociais. Há uma pequena chance do colapso total. Mas se fizermos as coisas como devem ser feitas, vamos iniciar uma nova era de ouro onde a IA faz todo o nosso trabalho intelectual, os humanos apenas labutam sob a sua direção e isso vai ser uma coisa em grande.”
O lado positivo da IA, aparentemente, é que a superinteligência substitui a intervenção humana. Supõe-se que isso tenha boas consequências: acelerar a ciência e assim por diante. Mas não é exatamente motivador, porque não está claro o que podemos fazer neste quadro.
O último post de Sam Altman no blog “The Gentle Singularity” tranquiliza-nos dizendo que sempre sentiremos que há algo a fazer. “Espero que daqui a mil anos olhemos para os empregos de então e os consideremos como empregos altamente artificiais e não tenho dúvidas de que as pessoas que os fazem. se sentirão incrivelmente importantes e satisfeitas
Se esse é o lado positivo que nos é oferecido, não me surpreende que as pessoas estejam entediadas e deprimidas. Primeiro, é uma história pouco atraente, como Ryan Moulton explica:
Quando eu me estava a tornar um adulto e a decidir sobre o que seria a minha vida, eu tinha acabado de ler The Dispossessed, e decidi que “fazer o trabalho necessário e fazê-lo bem” era uma boa base para uma identidade própria.
Os textos do blog de Sama causam-me ansiedade, mesmo que a sua visão cor-de-rosa de que o alinhamento é trivial se torne realidade.
Em segundo lugar, como Ryan sugere na sua última frase, a visão de futuro de Altman não é muito convincente. Histórias sobre sociedades totalmente automatizadas, onde uma IA superinteligente toma as decisões estratégicas, coordena as cadeias de abastecimento etc., partem do pressuposto silencioso de que podemos resolver o problema do ‘alinhamento’ não apenas para os modelos, mas também para os seres humanos. Espera-se que primatas bípedes convirjam naturalmente para um sistema em que as decisões sejam tomadas por qualquer entidade que seja mais inteligente ou que produza os melhores resultados. Uma certa versão desse futuro parece racional e plausível para os totós desde Platão. Mas, de uma maneira ou de outra, nós, os totós consistentemente falhamos em torná-lo realidade — apesar da nossa inteligência presumivelmente impressionante. Se você quer uma visão do futuro da ‘superinteligência’, considere o destino da web aberta ou da US National Science Foundation (NSF)
Não estou simplesmente a encolher os ombros de maneira fatalista sobre política e mercados. Acho que cortar o orçamento da NSF (Fundação Nacional da Ciência) foi uma má ideia, mas há boas razões pelas quais continuamos a falhar em eliminar discordâncias humanas. É uma parte estrutural do sistema. Se o leitor, ou eu, tentássemos automatizar, digamos, os painéis de revisão da NSF, o nosso sistema automatizado desenvolveria pontos de estrangulamento e acabaria por precisar de críticas externas. (Para uma boa explicação do porquê, veja o texto de Bryan Wilder sobre revisão automatizada.) Teoricamente, essa crítica externa poderia ser fornecida por IA. Mas, se assim fosse, a IA precisaria ser construída ou controlada por outra pessoa – alguém independente de nós. Se uma tarefa é realmente importante, você precisa de pessoas jurídicas que não podem editar ou excluírem-se umas às outras debatendo sobre ela.
A IA como uma tecnologia cultural
A centralidade irredutível do conflito humano é uma das razões pelas quais duvido que ‘superinteligência’ seja o enquadramento adequado para pensar nos efeitos económicos e sociais da IA. Por mais inteligente que se torne, um sistema que carece de personalidade jurídica independente não é um bom substituto para um analista ou gestor humano. Também não acho provável que polémicas sociedades humanas redefinam a personalidade jurídica de modo que ela possa ser multiplicada ao pressionar command-C seguido de command-V.
Uma visão mais coerente e positiva de um futuro com IA começou a surgir. Como o título do livro Co-Intelligence de Ethan Mollick sugere, ele tende a envolver trabalhar com assistência de IA, e não entregar grandes setores da economia a uma superinteligência. Eu descrevi acima um motivo para esperar esse caminho. Arvind Narayanan e Sayash Kapoor apresentaram um argumento mais consistente de que a capacidade da IA dificilmente superará exponencialmente a capacidade humana numa ampla gama de tarefas
Uma razão pela qual eles não esperam essa trajetória é que a história recente da IA não tem corroborado suposições sobre o poder de uma inteligência abstrata e perfeitamente generalizável. O progresso foi rápido na última década — mas não porque descobrimos primeiro o núcleo versátil da inteligência em si, que então tenha tornado possíveis todas as competências simplesmente específicas. Em vez disso, os modelos começaram com vastos e diversos conjuntos de imagens e textos, e aprenderam a imitá-los. Essa abordagem foi frustrante o bastante para alguns investigadores, que desdenharam dos novos modelos como simples “papagaios”, entidades que fingem inteligência de forma fraudulenta ao aprender um enorme repertório de modelos específicos.
Uma resposta um pouco mais positiva a esse avanço, defendido por Henry Farrell, Alison Gopnik, Cosma Shalizi e James Evans, tem sido a de caracterizar a IA como uma “tecnologia cultural“. Tecnologias culturais funcionam transmitindo e executando padrões de comportamento. Outros exemplos podem incluir bibliotecas, a imprensa ou a própria linguagem.
Será esta nova tecnologia cultural apenas um falso começo ou um prémio de consolação numa hipotética corrida cujo verdadeiro objetivo ainda é o núcleo proteico da inteligência? Muitos investigadores de IA parecem pensar assim. O termo “AGI” (Inteligência Artificial Geral) é assim frequentemente utilizado. Alguns investigadores, como Yann LeCun, argumentam que alcançar a AGI exigirá uma abordagem radicalmente diferente. Outros suspeitam que modelos de transformadores (transformers) ou modelos de difusão podem conseguir isso com escala suficiente.
Não sei quem está certo. Mas também não me importo muito. Não tenho a certeza se acredito em inteligência absolutamente geral — e sei que não acredito que a cultura seja um substituto menos valioso para ela.
Pelo contrário. Gosto da observação de Christopher Manning de que, no que diz respeito à inteligência pura, os seres humanos não são ordens de magnitude diferentes dos chimpazés bonobo. O que nos deu ordens de magnitude de maior poder para transformar este planeta, para o bem ou para o mal, foi a linguagem. A linguagem ampliou enormemente a nossa capacidade de coordenar padrões de comportamento coletivo (cultura) e transmitir esses padrões aos nossos descendentes. A escrita tornou os padrões culturais ainda mais duráveis. Agora, os modelos generativos de linguagem (e modelos de imagem e som) representam outra mudança significativa na nossa capacidade de externalizar e manipular a cultura.
Porquê a “tecnologia cultural” não deixa ninguém menos deprimido
Eu sugeri que uma visão realista e potencialmente positiva da IA começou a consolidar-se. Ela envolve trabalhar com a IA como uma “tecnologia normal” (Narayanan e Kapoor), numa longa sequência de “tecnologias culturais” (Gopnik, Farrell et al.) que expandiram o poder coletivo dos seres humanos.
Então, porque razão é que os meus amigos ainda estão deprimidos?
Bem, se eles acham que as consequências negativas da IA ultrapassarão os efeitos positivos, têm todo o direito de estar deprimidos, até porque ninguém provou que isso está errado. Continua a ser perfeitamente possível que a IA substitua pessoas em empregos existentes, que force a requalificação profissional, aumente a concentração de poder e (ainda mais) desestabilize a democracia. Não acho que alguém possa provar que os benefícios da IA superam esses possíveis malefícios. As consequências culturais e políticas da tecnologia são difíceis de prever, e, de um modo geral. não somos capazes de prevê-las neste momento.

Mas, como insinuei no início deste texto , não estou a tentar determinar se a IA é, no balanço geral, boa ou má. Pode ser difícil chegar a um consenso sobre isso, mesmo com uma tecnologia tão consolidada quanto a combustão interna ou a aviação. E, mesmo com tecnologias muito maduras, tende a ser mais útil tentar mudar o equilíbrio dos efeitos do que debater se ela é atualmente positiva.
Portanto, o objetivo deste texto não é pesar custos e benefícios, nem discutir com os céticos. É simplesmente afinar a nossa perceção do potencial positivo latente na visão da IA como uma ‘tecnologia cultural’. Acho que uma das razões pelas quais essa frase não animou ninguém é que ela foi percebida como um movimento desanimador, e não inspirador. As pessoas predispostas a interessarem-se pela IA têm sido na sua maioria, atraídas por uma narrativa bem diferente — a da inteligência geral proteiforme, muito análoga aos seres humanos. Se dissermos aos entusiastas da IA ‘não, isso é mais como escrever’, eles têm tendência a ficar tão desanimados quanto os céticos. O meu objetivo aqui é convencer aqueles que utilizam a IA de que ‘isto é como escrever” pode ser algo empolgante — e especificar algumas das coisas que precisaríamos fazer para torná-la empolgante.
Mapeamento e edição da cultura
Então, o que há de tão bom em escrever? A escrita é mais durável do que a palavra falada, é claro. Mas, igualmente importante, a escrita permite-nos dar um passo atrás em relação à linguagem, observá-la, refiná-la e construir estruturas complexas, em que um texto dialoga com outros dois, cada um citando mais cinquenta. Seria difícil imaginar a ciência sem a capacidade que a escrita oferece de examinar a linguagem de cima e usá-la como material de construção.
A IA generativa representa um segundo salto na nossa capacidade de mapear e editar a cultura. Agora podemos manipular não apenas textos e imagens específicos, mas também as disposições, tópicos, géneros, hábitos de pensamento e padrões de interação que os criam. Penso que ainda não compreendemos totalmente o que isso pode significar.
Vou tentar esboçar um conjunto de possibilidades. Mas sei de antemão que vou falhar aqui, assim como alguém em 1470 teria falhado em prever as consequências mais assustadoras e interessantes da imprensa. Pelo menos talvez consigamos chegar ao ponto de perceber que não se trata principalmente de “Bíblias mais baratas”.
Aqui está um texto de Bluesky que usou IA generativa para mapear o espaço de estilos visuais possíveis usando uma “referência de estilo” (sref)
Nos primeiros dias dos modelos de texto-para-imagem, frases especiais circulavam como palavras mágicas. Adicionar ‘Unreal Engine’, ‘HD’ ou ‘por James Gurney’ produzia efeitos estilísticos específicos. Mas o universo de estilos possíveis é maior do que qualquer dicionário dos media, escolas artísticas ou até mesmo nomes de artistas poderia abranger. Se tivéssemos uma maneira de mapear esse universo, poderíamos explorar os espaços em branco no mapa.
A Midjourney inventou as ‘referências de estilo’ como uma forma simples de fazer isso. Você cria uma referência escolhendo entre pares de imagens que representam vetores opostos num plano estilístico. No processo de fazer essas escolhas, o leitor constrói o seu próprio vetor multidimensional. Quando você tenha um código para o vetor, pode usá-lo como um adjetivo recém-inventado e ajustar a sua intensidade para mais ou para menos.

‘Referências de estilo’ são coisas modestas, é claro. Mas se podemos mapear um espaço de possibilidades para modelos de imagem, e inventar novos adjetivos para descrever direções nesse espaço, deveríamos ser capazes de fazer o mesmo para modelos de linguagem.
E “estilo” não é a única coisa que poderíamos mapear. Ao explorar a linguagem, parece provável que estaremos mapeando diferentes formas de pensamento. A experimentação chamada “Golden Gate Claude” foi uma demonstração inicial e rudimentar do que isso poderia significar. A Anthropic mapeou o efeito de diferentes neurónios num modelo e usou esse conhecimento para ajustar um neurónio específico, criando uma versão do Claude profundamente obcecada com a Ponte Golden Gate. Diante de qualquer tópico, ele eventualmente levava a conversa para o nevoeiro, ou para o filme Vertigo – o que, por sua vez, o fazia lembrar a icónica Ponte Golden Gate de São Francisco.
O Golden Gate Claude era mais uma doença mental do que uma ferramenta prática (lembrava-me Vertigo em mais do que um sentido). Mas tornar o modelo obcecado por um ponto emblemático específico foi uma simplificação deliberada para efeito dramático. O mapa que a Anthropic fez do seu modelo tinha muito mais nuances disponíveis, caso fossem necessárias.

A imagem acima é um mapa do espaço conceptual baseado em neurónios de um único modelo. Você pode imaginá-lo como um mapa de uma única mente ou, se preferir, um único padrão de uso da linguagem. Mas os modelos também diferem entre si, e não há razão para nos limitarmos a considerar um de cada vez.
Os académicos que trabalham nesta área (tanto em ciência da computação como nas ciências sociais) estão cada vez mais interessados em usar modelos de linguagem para explorar o pluralismo cultural. À medida que desenvolvemos modelos treinados em diferentes géneros, idiomas ou períodos históricos, esses modelos podem começar a funcionar como pontos de referência num espaço maior de possibilidade cultural, representando as diferenças entre mapas como o mostrado acima. Deveria ser possível comparar diferentes modos de pensamento, editá-los e criar novos adjetivos (como referências de estilo) para descrever direções no espaço cultural.
Se podemos mapear o espaço cultural, será que também poderíamos descobrir formas culturais genuinamente novas e novas maneiras de pensar? Não vejo por que não. Quando a escrita foi inventada, ela era, obviamente, um eco passivo da fala. “É como uma imagem, que não pode responder a uma pergunta e tem apenas uma semelhança enganosa de um ser vivo” (Fedro).
Mas externalizar a linguagem e fixá-la em marcas escritas acabou por nos permitir construir novos géneros (o artigo científico, o romance, o índice) que exigiam atenção mais sustentada ou maior mobilidade de referência do que a palavra falada poderia suportar. Modelos de cultura deveriam, da mesma forma permitir-nos explorar um novo espaço de possibilidade humana, estabilizando pontos de referência dentro dele.
Editar a cultura” é uma boa ideia?
Uma “nova capacidade de mapear e explorar diferentes modos de raciocínio” pode, inicialmente, parecer menos útil do que uma superinteligência que simplesmente fornece a resposta certa para os nossos problemas. E, sublinho, não estou a sugerir que mapear a cultura seja o único benefício da IA. Descobrir novos medicamentos também parece ótimo! Mas, se o leitor acredita que o conflito humano é o nosso problema mais importante e duradouro, então uma tecnologia que possa melhorar o autoconhecimento humano pode, no final das contas, valer mais do que um milhão de novos remédios.
Não quero dizer que os modelos de linguagem vão eliminar os conflitos. Como disse antes, o conflito é uma parte estrutural da sociedade. E é provável que os modelos de linguagem sejam usados como armas ideológicas — assim como os panfletos foram, depois que a impressão os tornou possíveis. Mas uma arma ideológica que pode ser questionada e comparada com outras ideologias sugere um nível de transparência além do que costumamos ter hoje na prática. Há, pelo menos, uma possibilidade — como vimos com o Grok — de que pessoas que tentem mentir usando um modelo interativo acabam por expor os seus próprios hábitos mentais desonestos.
Então, o que isto significa concretamente? Os mapas do espaço cultural serão alguma vez tão valiosos economicamente quanto assistentes pessoais que podem responder aos seus e-mails e a soarem fazendo lembrar a Scarlett Johansson?
Provavelmente não. Usar modelos de linguagem para explorar o espaço cultural pode não ser um grande investimento de curto prazo. É como — o que é que seria uma boa analogia? Um pequeno pedaço de âmbar que, estranhamente, atrai seda depois de ser esfregado. Ou, sabe, como uma pequena roda cheia de água que gira quando aquecida e solta vapor pelas aberturas. Em resumo, é uma curiosidade que alguns de nós acharão intrigante justamente porque ainda não entendemos como funciona. Mas, se você for como eu, esse é o melhor cenário possível para uma nova tecnologia.
Espere. Está a sugerir-nos que ‘mapear e editar a cultura’ é um potencial benefício da IA, permitindo-nos explorar um novo espaço do potencial humano. Mas esse poder não poderia ser mal utilizado? E se os criadores do Grok não ‘revelarem a sua própria desonestidade’, mas manipularem com sucesso a cultura no seu sentido mais ampla.
Sim, isso poderia acontecer. Eu referi anteriormente que este texto não tentaria pesar custos contra benefícios, porque não sei — e acho que ninguém sabe — como é que isso se vai desenrolar. O meu objetivo aqui era ‘apenas incentivar a melhorarmos a nossa perceção do potencial positivo da tecnologia cultural’ e ajudar a ‘especificar o que precisaríamos fazer para torná-la empolgante’. Estou a tentar explicar um desafio específico e mostrar como é que o equilíbrio pode oscilar nele. Uma garantia de que as coisas, de facto, vão dar certo não é algo que eu pretendia oferecer.
Um futuro em que os seres humanos tenham a capacidade de mapear e editar a cultura pode ser muito sombrio. Mas não acho que será entediante ou passivamente deprimente. Se achamos que isso soa entediante, não estamos a pensar o suficiente.
_________
Referências
Altman, S. (2025, June 10). The Gentle Singularity. Consultado em 2 de Julho de 2025, de https://blog.samaltman.com/the-gentle-singularity.blog.samaltman.com
Anthropic Interpretability Team. (2024, April). Scaling monosemanticity: Extracting interpretable features from Claude 3 Sonnet. Transformer Circuits Thread. Consultado em 2 de Julho de 2025, de https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Em Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610–623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922 researchgate.net
Farrell, H., Gopnik, A., Shalizi, C., & Evans, J. (2025, March 14). Large AI models are cultural and social technologies. Science, 387(6739), 1153–1156. https://doi.org/10.1126/science.adt9819 pubmed.ncbi.nlm.nih.gov
Manning, C. D. (2022). Human language understanding & reasoning. Daedalus, 151(2), 127–138. https://doi.org/10.1162/daed_a_01905 virtual-routes.org
Mollick, E. (2024). Co-Intelligence: Living and working with AI. Penguin Random House. penguinrandomhouse.com
Narayanan, A., & Kapoor, S. (2025, April 15). AI as normal technology: An alternative to the vision of AI as a potential superintelligence. Knight First Amendment Institute. kfai-documents.s3.amazonaws.com
Sorensen, T., Moore, J., Fisher, J., Gordon, M., Mireshghallah, N., Rytting, C. M., Ye, A., Jiang, L., Lu, X., Dziri, N., Althoff, T., & Choi, Y. (2024). A roadmap to pluralistic alignment. arXiv. https://arxiv.org/abs/2402.05070
Standard Ebooks. (2022). Phaedrus (B. Jowett, Trans.). Consultado em 2 de Julho de 2025, de https://standardebooks.org/ebooks/plato/dialogues/benjamin-jowett/text/single-page
Varnum, M. E. W., Baumard, N., Atari, M., & Gray, K. (2024). Large language models based on historical text could offer informative tools for behavioral science. Proceedings of the National Academy of Sciences of the United States of America, 121(42), e2407639121. https://doi.org/10.1073/pnas.2407639121
Wilder, B. (2025). Equilibrium effects of LLM reviewing. Consultado em 2 de Julho de 2025, de https://bryanwilder.github.io/files/llmreviews.html bryanwilder.github.io
O autor: Ted Underwood é Professor de Ciências da Informação e Inglês na Universidade de Illinois, Urbana-Champaign. Recebeu formação de romancista mas atualmente a sua investigação é tanto sobre ciência da informação como crítica literária. Está especialmente interessado em aplicar a aprendizagem de máquina a grandes coleções digitais. Como as “grandes coleções digitais” ainda não existem na forma que se precisaria para uma pesquisa literária interessante, muito do seu trabalho envolve corrigi-las e enriquecê-las. Recentemente, terminou um livro sobre as novas perspectivas abertas pelas grandes bibliotecas digitais, chamado Distant Horizons: digital Evidence and Literary Change (Univ de Chicago, Primavera de 2019). É autor de Why Literary Periods Mattered: Historical Contrast and the Prestige of English Studies. Stanford, CA: Stanford University Press, 2013 e de The Work of the Sun: Literature, Science, and Political Economy, 1760-1860. New York: Palgrave, 2005.






