Espuma dos dias — Conversação via GPT (transformador generativo pré-treinado), valor e conhecimento, por Guglielmo Carchedi

Seleção e tradução de Francisco Tavares

10 min de leitura

Conversação via GPT (transformador generativo pré-treinado), valor e conhecimento

 Por Guglielmo Carchedi

Michael Roberts convida o seu colega próximo e coautor do seu último livro, Guglielmo Carchedi, a escrever este texto.

Publicado por Next Recession  em 4 de Junho de 2023 (original aqui)

 

Num comentário sobre a publicação no blog de Michael Roberts sobre a inteligência artificial (IA) e as novas máquinas de aprendizagem de línguas (LLMs), o autor e comentador, Jack Rasmus, levantou algumas questões pertinentes, que me senti obrigado a abordar.

Diz Jack: “Será que a análise de Marx sobre a maquinaria e a sua visão de que a maquinaria é um valor de trabalho congelado que é passado para a mercadoria à medida que se deprecia se aplica completamente às máquinas baseadas em software de IA que têm a capacidade crescente de auto-manter e atualizar o seu próprio código sem intervenção do trabalho humano – isto é, não depreciar?

A minha resposta à legítima pergunta de Jack pressupõe o desenvolvimento de uma epistemologia marxista (uma teoria do conhecimento), uma área de investigação relativamente inexplorada e subdesenvolvida.

Na minha opinião, uma das principais características de uma abordagem marxista é fazer uma distinção entre ‘produção objectiva’ (a produção de coisas objectivas) e ‘produção mental’ (a produção de conhecimento). O mais importante é que o conhecimento deve ser visto como material, não como imaterial, nem como reflexo da realidade material. Isto permite-nos distinguir entre meios de produção objectivos (MP) e MP mentais; ambos são materiais. Marx concentrou-se principalmente, mas não exclusivamente, no primeiro. No entanto, existem nas suas obras muitas pistas sobre como devemos entender o conhecimento.

 

Uma máquina é um MP objetivo; o conhecimento incorporado nele (ou desincorporado) é um MP mental. Portanto, a IA (incluindo o ChatGPT) deve ser vista como um MP mental. Na minha opinião, dado que o conhecimento é material, o MP mental é tão material como o MP objectivo. Assim, os MP mentais têm valor e produzem mais-valia se forem o resultado do trabalho mental humano realizado para o capital. Portanto, a IA tem trabalho humano envolvido. Só que é trabalho mental.

Tal como os MP objectivos, os MP mentais aumentam a produtividade e reduzem a mão-de-obra. O seu valor pode ser medido em horas de trabalho. A produtividade dos MP mentais pode ser medida, por exemplo, pelo número de vezes que o ChatGPT é vendido, descarregado ou aplicado a processos de trabalho mental. Tal como os MP objectivos, o seu valor aumenta à medida que lhes são acrescentados melhoramentos (conhecimento adicional) (pelo trabalho humano) e diminui devido ao uso e desgaste. Assim, os MP mentais (IA) não só se depreciam, mas também o fazem a um ritmo muito rápido. Isto é depreciação devido à concorrência tecnológica (obsolescência), em vez de depreciação física. E, tal como os MP objectivos, a sua produtividade afectará a redistribuição da mais-valia. Na medida em que os modelos mais novos de ChatGPT substituem os mais antigos, devido aos diferenciais de produtividade e aos seus efeitos na redistribuição da mais-valia (teoria dos preços de Marx), os modelos mais antigos perdem valor para os mais novos e mais produtivos.

Jack pergunta: “esta capacidade é baseada no trabalho humano ou não? Se não, o que significa um’ não ‘ para o conceito–chave de Marx da composição orgânica do capital e, por sua vez, para o seu (Michael Roberts e meu ) apoio frequentemente declarado da hipótese da queda da taxa de lucro?

A minha resposta acima foi que esta ‘capacidade’ não se baseia apenas no trabalho humano (mental), mas é trabalho humano. Nesta perspectiva, não há problema com o conceito de Marx da composição orgânica do capital (C). Uma vez que a IA e, portanto, o ChatGPT são novas formas de conhecimento, de MP mentais, o numerador de C é a soma de MP objetivo mais MP mental. O denominador é a soma do capital variável despendido em ambos os sectores. Assim, a taxa de lucro é a mais-valia gerada em ambos os sectores, dividida pela (a) soma do MP em ambos os sectores mais (b) o capital variável gasto também em ambos os sectores. Assim, a lei da queda tendencial da taxa de lucro é inalterada pelos MP mentais, ao contrário da sugestão de Jack.

Para entender melhor os pontos acima, precisamos descompactar e desenvolver a teoria implícita do conhecimento de Marx. É o que fazem os parágrafos seguintes, embora numa versão extremamente sucinta.

Considere os primeiros computadores clássicos. Eles transformam o conhecimento com base na lógica formal, ou lógica booleana ou álgebra, o que exclui a possibilidade de a mesma afirmação ser verdadeira e falsa ao mesmo tempo. A lógica formal e, portanto, os computadores excluem contradições. Se eles pudessem percebê-los, seriam erros lógicos. O mesmo se aplica aos computadores quânticos.

Por outras palavras, a lógica formal explica os processos de trabalho mental pré-determinados (onde o resultado do processo é conhecido de antemão e, portanto, não contraditório com o conhecimento que entra nesse processo de trabalho), mas exclui os processos de trabalho mental em aberto (onde o resultado emerge como algo novo, ainda não conhecido). Um processo aberto baseia-se numa reserva potencial de conhecimento sem forma, que tem uma natureza contraditória devido à natureza contraditória dos elementos nele sedimentados. Diferente da lógica formal, a lógica aberta baseia-se em contradições, incluindo a contradição entre o potencial e os aspectos realizados do conhecimento. Esta é a fonte das contradições entre os aspectos da realidade, incluindo elementos do conhecimento.

Voltando a um exemplo acima, para processos de trabalho mental em aberto, A = a e também a A1A. Não há contradição aqui. A = A porque A como uma entidade realizada é igual a si mesma por definição; mas A1A porque o a realizado pode ser contraditório com o potencial A. Esta é a natureza da mudança, algo que a lógica formal não pode explicar.

Isto vale também para a Inteligência Artificial (IA). Tal como os computadores, a IA funciona com base na lógica formal. Por exemplo, quando questionado se A=a e também ao mesmo tempo pode ser um A1A, o ChatGPT responde negativamente. Uma vez que funciona com base na lógica formal, a IA carece do reservatório de conhecimentos potenciais para extrair mais conhecimentos. Não pode conceber contradições porque não pode conceber o potencial. Estas contradições são o húmus do pensamento criativo, isto é, da geração de novos conhecimentos, ainda desconhecidos. A IA só pode recombinar, seleccionar e duplicar formas de conhecimento realizadas. Em tarefas como visão, reconhecimento de imagem, raciocínio, compreensão de leitura e jogo, eles podem ter um desempenho muito melhor do que os humanos. Mas não podem gerar novos conhecimentos.

Considere o reconhecimento facial, uma técnica que compara a fotografia de um indivíduo com um banco de dados de rostos conhecidos para encontrar uma correspondência. A base de dados é constituída por várias faces conhecidas. Encontrar uma correspondência selecciona uma face já realizada, ou seja, já conhecida. Não há geração de novos conhecimentos (novas faces). O reconhecimento facial pode encontrar uma correspondência muito mais rapidamente do que um ser humano. Torna o trabalho humano mais produtivo. Mas a seleção não é criação. A seleção é um processo mental pré-determinado; a criação é um processo mental aberto.

Tomemos outro exemplo. O ChatGPT parece imitar a escrita criativa humana. Na verdade, isso não acontece. Obtém o seu conhecimento a partir de grandes quantidades de dados de texto (os objectos de produção mental). Os textos são divididos em pedaços menores, frases, palavras ou sílabas, os chamados tokens. Quando o ChatGPT escreve uma peça, ele não escolhe o próximo token de acordo com a lógica do argumento (como os humanos fazem). Em vez disso, ele escolhe o token mais provável. O resultado escrito é uma cadeia de fichas reunidas com base na combinação estatisticamente mais provável. Trata-se de uma selecção e recombinação de elementos de conhecimento já realizados, não da criação de novos conhecimentos.

Como Chomsky et al. (2023) dizem: “a IA apanha enormes quantidades de dados, procura padrões e torna—se cada vez mais proficiente em gerar resultados estatisticamente prováveis – como linguagem e pensamento aparentemente humanos … [ChatGPT] apenas resume os argumentos padrão na literatura“.

Pode acontecer que o ChatGPT produza um texto que nunca foi pensado pelos seres humanos. Mas isso ainda seria um resumo e retrabalho de dados já conhecidos. Nenhuma escrita criativa poderia emergir dela, porque novos conhecimentos realizados só podem emergir das contradições inerentes ao conhecimento potencial.

Morozov (2023) fornece um exemplo relevante: “a obra de arte Fonte de Marcel Duchamp de 1917. Antes da peça de Duchamp, um mictório era apenas um mictório. Mas, com uma mudança de perspectiva, Duchamp transformou-a numa obra de arte. Quando perguntado sobre o que a prateleira de garrafas de Duchamp, a pá de neve e o mictório tinham em comum, o ChatGPT respondeu corretamente que são todos objetos do quotidiano que Duchamp transformou em arte. Mas quando perguntado qual dos objetos de hoje Duchamp poderia transformar em arte, sugeriu smartphones, scooters eletrónicos e máscaras faciais. Não há qualquer indício de “inteligência” genuína aqui. É uma máquina estatística bem gerida mas previsível”.

 

Marx fornece o quadro teórico adequado para a compreensão do conhecimento. Os seres humanos, além de indivíduos concretos únicos, são também portadores de relações sociais, como indivíduos abstratos. Como indivíduos abstratos, ‘humanos’ é uma designação geral que elimina as diferenças entre os indivíduos, todos eles com interesses e visões de mundo diferentes. Mesmo que as máquinas (computadores) pudessem pensar, elas não poderiam pensar como seres humanos determinados por classes com concepções diferentes e determinadas por classes do que é verdadeiro e falso, certo ou errado. Acreditar que os computadores são capazes de pensamento humano não é apenas errado; é também uma ideologia pró-capital, porque isso é ser cego para o conteúdo de classe do conhecimento armazenado na força de trabalho e, portanto, para as contradições inerentes à geração de conhecimento.

Para mais informações sobre uma teoria marxista do conhecimento e sua relação com a lei do valor de Marx, veja o meu artigo recente, a Ontologia e a Dimensão Social do Conhecimento: o Tempo dos Quanta da Internet, pensamento crítico Internacional, 2022 e o nosso livro, Capitalismo no século 21, capítulo cinco.

 


Guglielmo Carchedi é investigador sénior no departamento de Economia e Econometria da Universidade de Amesterdão. Para além dos livros acima mencionados é autor, entre outros, de Frontiers of Political Economy e Marx e Non-Equilibrium Economics.

 

Leave a Reply