Teoria e Política Económica: os grandes confrontos de ontem, hoje e amanhã, também – uma homenagem ao Joaquim Feio — Capítulo 2 — Texto 18. Em busca de uma melhor teoria macroeconómica (1/2). Por Heinz D. Kurz e Neri Salvadori

Reflexos de uma trajetória intelectual conjunta ao longo de décadas – uma homenagem ao Joaquim Feio

 

Capítulo 2 – De Sraffa à necessidade de romper com o pensamento económico dominante. As grandes questões da macroeconomia

 

Nota de editor: devido à extensão e nível de abstração deste texto, o mesmo será publicado em duas partes. Hoje a primeira.

Seleção e tradução de Júlio Marques Mota

18 min de leitura

Texto 18 –  Em busca de uma melhor teoria macroeconómica  (1/2)

Por  HEINZ D. KURZ e  NERI SALVADORI (*)

Moneta e Credito, vol. 72, nº 287, págs 229-247 (2019) Setembro (original aqui)

 

(*) Contribuição para a edição especial de Moneta e Credito intitulada “Crise e revoluções da teoria e política económicas: um simpósio”, inspirado no debate entre Olivier Blanchard e Emiliano Brancaccio realizado na Fundação Feltrinelli em Milão em 18 de dezembro de 2018. Editado por Emiliano Brancaccio e Fabiana de Cristofaro. Estamos gratos a Ton Aspromourgos, a Peter Spahn e, em especial, a Rodolfo Signorino, pelos comentários e sugestões úteis recebidos sobre os projectos anteriores deste trabalho. Gostaríamos também de agradecer a dois pareceres anónimos por comentários valiosos e excelentes sugestões. Todos os erros e juízos erróneos que ainda persistam são, naturalmente, da nossa inteira responsabilidade.

 

***

Este artigo salienta que vários elementos constituintes da macroeconomia moderna e os resultados derivados da mesma não são sustentáveis. A referência é às alegadas “microfundações” da teoria e, em particular, à utilização das funções de produção macroeconómica e do método do “agente representativo”. As “leis” simples e aparentemente não invasivas da procura dos insumos e da oferta da produção final não são sustentáveis em geral. Os macroeconomistas orgulham-se frequentemente de desenvolver os seus argumentos em termos de uma versão reduzida da teoria do equilíbrio geral, mas agem como se não tivessem consciência de que a estabilidade do equilíbrio económico geral não pode ser provada em condições suficientemente gerais. Uma outra fonte de instabilidade no sistema económico pode ser encontrada na natureza disruptiva das mudanças tecnológicas.

 

Num recente ensaio provocador intitulado “Repensando a Política de Estabilização: Evolução ou Revolução?”, Olivier J. Blanchard e Lawrence H. Summers (2017, republicado nesta edição: Blanchard e Summers, 2019) argumentam que o manifesto fracasso da teoria macroeconómica dominante em explicar a “Grande Recessão” na sequência da crise financeira desencadeada pelo colapso do segmento subprime do mercado imobiliário dos EUA em 2007-2008 deveria levar os macroeconomistas contemporâneos a mudar fundamentalmente os seus modelos interpretativos da realidade [1].

Infelizmente, como se pode ver pelo próprio título do seu trabalho, Blanchard e Summers não se comprometem e não nos dizem explicitamente se a mudança que consideram necessária deve ser interpretada no sentido de uma simples “evolução” ou se deve ser procurada uma verdadeira “revolução”. Em qualquer caso, os dois autores não deixam dúvidas de que, na sua opinião, simples operações cosméticas, de pequenos ajustamentos à margem, não são suficientes para colmatar a lacuna entre a teoria e a realidade macroeconómica. De facto, salientam que uma análise mais aprofundada da complexidade do sector financeiro e da sua instabilidade inerente é apenas o primeiro passo: “a lição a aprender vai muito mais longe e deve obrigar-nos a questionar certas crenças estabelecidas” (Blanchard e Summers, 2019, p. 172, itálico nosso). As “crenças tão acarinhadas” pelos economistas contemporâneos a que Blanchard e Summers se referem incluem tanto a presunção de que as economias de mercado livre são capazes de se auto-regularem de uma forma totalmente otimizada, consideradas as restrições institucionais, informativas, etc. a que estão sujeitas, como a presunção de que choques temporários não podem ter efeitos permanentes no PIB per capita de médio-longo prazo (ibid.).

De facto, há muitas outras crenças para além das duas acima mencionadas que a maioria dos macroeconomistas preza e que vale a pena mencionar neste contexto. Tais convicções podem de facto ajudar a explicar o que aconteceu exatamente e porquê, e sobretudo o que pode ser feito em termos de política para mitigar a propensão inata do sistema económico para a instabilidade [2].

Algumas destas crenças já foram destacadas e criticadas por Emiliano Brancaccio (2017; ver também Brancaccio e Califano 2018) e muitos outros autores, incluindo Paul Krugman, Paul Romer e Joseph Stiglitz, para citar apenas os mais conhecidos. Neste presente texto, pretendemos destacar e analisar criticamente duas outras crenças: primeiro, a presunção de que na parte “real” do modelo a procura e a oferta de uma determinada mercadoria, seja ela um bem de consumo ou o serviço de um fator produtivo, “comportam-se bem”, ou seja, têm uma forma e uma posição no plano do preço-quantidade de forma a garantir a existência, estabilidade e singularidade do equilíbrio; segundo, a presunção de que o progresso técnico é de natureza tal que pode ser absorvido pelo sistema económico sem dar origem a flutuações cíclicas marcadas e prolongadas (tal como defendido, por exemplo, entre outros, por Joseph A. Schumpeter, [1912] 1934; 1939).

A tese que iremos defender a seguir é que ambas as crenças acima referidas não podem ser sustentadas em geral. Por outras palavras, os modelos macroeconómicos ‘mainstream‘ representam casos especiais de situações de equilíbrio cujas previsões (e implicações políticas) não sobrevivem ou pelo menos precisam de ser devidamente qualificadas logo que os pressupostos básicos sobre os quais estes modelos se constroem são flexibilizados. No que se segue, mostraremos de facto que os caminhos que conduzem à instabilidade, crises e flutuações cíclicas são muito mais numerosos e significativos do que muitos macroeconomistas parecem normalmente supor.

Começamos por comentar brevemente alguns pressupostos fundamentais da macroeconomia moderna, pressupostos que, na nossa opinião, estão subjacentes aos seus resultados dececionantes em termos de explicação e previsão dos fenómenos económicos. Em todo o caso, estes pressupostos mostram um défice empírico de microfundamentação, para desgosto dos macroeconomistas contemporâneos que, na esteira de Lucas (1976), consideram os seus modelos “microfundamentados” analiticamente superiores aos desenvolvidos pela primeira geração de economistas keynesianos nas décadas de 1950 e 1960.

Numa grande parte da macroeconomia moderna ainda se assume que existe um “agente representativo imortal” e que a análise do comportamento desse agente pode formar a base sobre a qual todo o edifício teórico pode ser estabelecido [3]. Em segundo lugar, assume-se que este agente se depara com condições técnicas de produção que podem ser representadas por uma função de produção e que conhece esta função de produção macroeconómica, que também é de um tipo muito específico, como veremos em breve. Em terceiro lugar, assume-se a validade de uma variante específica da lei de escoamento da produção ou ainda dita Lei de Say, segundo a qual (numa economia fechada) a despesa total de investimento é, em média, igual à poupança agregada de pleno emprego. Um corolário significativo desta variante específica da Lei de Say é que, em média, a produção real segue de perto a produção potencial. Em termos políticos, isto significa que as políticas de estabilização cíclica do lado da procura são muito menos significativas e dignas de atenção analítica do que as políticas do lado da oferta destinadas a estimular o crescimento potencial do PIB.

O ponto em questão deve ser realçado. Como veremos adiante, alguns economistas clássicos como Smith e Ricardo adotaram uma interpretação diferente da chamada Lei do Escoamento da produção, interpretação da qual não se segue que o único equilíbrio possível do sistema económico é o do pleno emprego e da qual não se segue que as perturbações cíclicas do lado da procura apenas têm efeitos transitórios sobre o PIB de equilíbrio a médio e longo prazo.

 

1. Microfundamentos ?

Os defensores da moderna macroeconomia neoclássica (e neo-Keynesiana) orgulham-se geralmente de basear as suas análises em “microfundamentações” sólidas. Infelizmente, um olhar mais atento mostra que este sentimento de orgulho é despropositado. Um olhar sobre a contribuição de Robert Lucas mostra-nos o que aconteceu e porquê [4]. Como é bem sabido, Lucas utilizou uma versão simplificada do modelo de equilíbrio geral intertemporal para encontrar respostas a questões macroeconómicas tradicionais. Para Lucas, isto implicava a utilização de ferramentas analíticas inovadoras para abordar problemas que a análise keynesiana pós Segunda Guerra Mundial e a macro-econometria conexa não tinham sido capazes de abordar eficazmente, precisamente devido à falta de tais ferramentas analíticas. Por outras palavras, a nova macroeconomia Lucasiana foi apresentada como uma inovação de “caixa de ferramentas” do economista.

No entanto, uma investigação mais aprofundada mostra que esta foi uma mudança muito mais radical do que um mero ‘avanço’ nas ferramentas analíticas utilizadas. De facto, as mudanças introduzidas implicaram uma reorientação fundamental da macroeconomia, do seu âmbito e conteúdo, e, portanto, uma descontinuidade substancial com o que a macroeconomia tinha sido até ao início dos anos 70. Com Lucas, a macroeconomia tornou-se uma teoria que se centrou essencialmente no longo prazo e favoreceu o modelo Walrasiano de equilíbrio geral como modelo de referência (ver Kurz, 2010). Para Lucas, é a longo prazo que se pode esperar que todos os mercados, incluindo o mercado de trabalho, funcionem de acordo com as previsões do modelo walrasiano. Com isto em mente, ele vai ao ponto de adotar o pressuposto heroico, que subiu à categoria de axioma, de que todos os mercados estão em equilíbrio walrasiano em todos os momentos e, acima de tudo, de que “temos um mercado de trabalho em equilíbrio em todos os momentos” (Lucas, 2004, p. 16). Esta hipótese elimina pela raiz o problema que em tempos foi a razão de ser da macroeconomia keynesiana, nomeadamente explicar quando e porquê o desemprego involuntário surge em equilíbrio e o que pode ser feito em relação a ele [5]. Por outras palavras, uma parte significativa da macroeconomia moderna é a teoria do pleno emprego tout court. Assim, o trabalho de Lucas (e associados) envolveu não uma evolução mas sim uma “revolução” no sentido estrito, ou seja, um regresso a uma abordagem teórica baseada na variante neoclássica da Lei de Say, uma abordagem que prevê, de facto exige que todos os mercados na economia, incluindo o mercado de trabalho, sejam analisados em termos de funções “bem-comportadas” da oferta e da procura.

Chegou o momento de clarificar as diferenças teóricas entre as variantes clássicas e neo-clássicas da Lei de Say. Como veremos, estas duas interpretações diferentes da Lei de Say surgem de dois paradigmas teóricos radicalmente diferentes [6].

Nos economistas clássicos, o Lei de Say foi discutida no contexto do problema de saber se as decisões de poupança ipso facto implicam decisões de acumulação de capital da mesma magnitude. Enquanto os assalariados gastam normalmente todo o seu rendimento em bens de consumo (não só e não necessariamente necessários, mas também luxos em tempos de “salários elevados”), os que auferem lucros e rendas podem acumular uma parte do seu rendimento sob forma líquida, uma vez que normalmente esse rendimento excede o valor dos bens de subsistência. Neste caso, as poupanças não se traduziriam numa nova acumulação de bens de capital e o demónio malthusiano da abundância generalizada de mercadorias poderia materializar-se. Tanto Smith como Ricardo descartam o fenómeno da acumulação de poupanças sob forma líquida, excluindo assim que o processo de acumulação de capital possa parar devido àquilo a que hoje chamaríamos uma escassez de procura agregada de mercadorias. Mas, e aqui reside o cerne da questão, para Smith e Ricardo é a procura de mercadorias reproduzíveis que se ajusta espontaneamente à produção de mercadorias para as quais o pleno emprego do capital não implica o pleno emprego da força de trabalho. É por isso que para um economista clássico não há contradição entre afirmar a validade da Lei de Say e, ao mesmo tempo, analisar situações de desemprego ou subemprego no mercado de trabalho.

Pelo contrário, a abordagem de Lucas à macroeconomia pressupõe que o investimento agregado é sempre igual à poupança em pleno emprego, ou seja, o montante da poupança que resultaria da utilização integral de todos os recursos produtivos, capital e trabalho. Pressupõe que não existem problemas de coordenação intertemporal entre as decisões de poupança, vistas como um mero adiamento no tempo das decisões de consumo, e as novas decisões de produção de bens de capital que não podem ser resolvidas pelo sistema Walrasiano de equilíbrio intertemporal de preços. Assim, se não houver discrepância entre o investimento planeado e a poupança planeada, também não há problema de procura agregada efetiva de bens. Contudo, o mercado de trabalho só pode estar em equilíbrio walrasiano “em todo e qualquer momento” se as empresas não só esperarem poder vender em qualquer momento o que é produzido por uma força de trabalho plenamente empregada, mas também que o possam fazer em qualquer momento. Isto é, se e só se as quantidades ex ante planeadas coincidirem com as quantidades ex post realizadas. Mas mesmo uma observação casual do mundo real “lá fora” mostra como é infundada a ideia de que o mercado de trabalho está sempre em equilíbrio. Lucas justificou a sua hipótese sobre a natureza do equilíbrio no mercado de trabalho em termos de uma outra hipótese, nomeadamente a existência de um “leiloeiro” que atua “muito rapidamente” e miraculosamente consegue reduzir a lógica “de qualquer tipo de dinâmica” à de uma economia em que todos os fatores de produção são continua e plenamente utilizados (Lucas, 2004, p. 23). Assim, por hipótese, falhas da mão invisível do mercado, problemas de procura efetiva, desemprego involuntário, e outros similares, são eliminados do quadro de análise.

A figura do “agente representativo” invocada em grande parte da macroeconomia dominante na época da Grande Moderação é particularmente problemática. Em primeiro lugar, removeu efetivamente o problema da distribuição interpessoal de rendimentos da agenda do economista. Como se sabe, para David Ricardo, o principal problema a que a economia política deve responder é o de estudar como é que o rendimento produzido numa determinada nação e num dado momento é repartido entre as várias classes sociais que, de diversas maneiras contribuíram para a sua produção, sob a forma de salários, lucros e rendas, e como é que a repartição do rendimento entre as classes sociais muda ao longo do tempo. Obviamente, o agente representativo não tem motivos para se preocupar se os seus rendimentos consistem em salários, lucros ou rendas, uma vez que todos os tipos de rendimentos são seus e, consequentemente, o economista pode ignorar o problema de Ricardo. Com uma pluralidade de agentes heterogéneos, as coisas são muito diferentes, e “disputas” bem conhecidas (Adam Smith, [1776] 1976, Livro I, cap. viii, par. 12) sobre a repartição do rendimento reaparecem [7]. Em segundo lugar, nunca foi demonstrado que o comportamento do agente representativo possa ser derivado de uma multiplicidade de comportamentos de agentes heterogéneos através de um processo consistente de agregação. Forni e Lippi (1997) também chamaram a atenção para uma negligência da macroeconomia moderna: a natureza agregada dos dados utilizados. Os modelos macroeconómicos padrão postulam a maximização intertemporal dos agentes e desenvolvem equações dinâmicas ligando variáveis económicas tais como consumo, rendimento, investimento, taxa de juro e emprego. Em seguida, analisam as propriedades destas equações, tais como cointegração, causalidade Granger e restrições de parâmetros. A hipótese de agentes idênticos ou homogéneos leva o teórico macroeconómico a analisar estas propriedades diretamente sobre dados agregados. Mas isto coloca um enorme problema, como se torna claro quando a hipótese de homogeneidade é analisada com base em dados desagregados. O abandono da hipótese de homogeneidade mostra que, para além dos casos fortuitos, a causalidade granular unilateral da cointegração, as restrições de parâmetros são vítimas da agregação. Forni e Lippi concluem que a macroeconomia moderna não pode afirmar possuir microfundamentações sólidas [8].

Se os agentes têm diferentes incentivos e diferentes preferências, e especialmente se enfrentam diferentes constrangimentos nos vários mercados em que operam, normalmente comportam-se de forma diferente dependendo, entre outras coisas, da repartição do rendimento e da riqueza. Isto é excluído na maioria dos modelos macroeconómicos dominantes da macroeconomia moderna. Assim, o agente em consideração é erroneamente chamado “representativo”: não representa uma variedade de agentes diferentes, mas apenas um [9]. O rebanho e as ovelhas individuais que constituem o rebanho comportam-se da mesma forma, e acima de tudo, o comportamento do rebanho é simplesmente n-vezes o comportamento das ovelhas individuais representativas, ou seja, não existem propriedades do comportamento agregado que emergem das propriedades do comportamento individual. Em suma, o conceito de comportamento do rebanho não tem lugar nos modelos de agentes representativos.

Uma consequência disto é que a macroeconomia emprega corajosamente uma hipótese implícita de ceteris paribus [tudo o resto igual]: aconteça o que acontecer no sistema económico, o agente representativo não fica impressionado. É como uma rocha entre as ondas, maximizando incessantemente a utilidade intertemporal num horizonte temporal infinito. O sistema económico, faça ele o que fizer, fá-lo de forma óptima, por isso, como poderia alguma vez desviar-se? Hipoteticamente isto é impossível.

Vejamos a função de produção macroeconómica utilizada em grande parte da literatura macroeconómica moderna. A função de produção é tipicamente e erroneamente referida como ‘agregada’. No entanto, nunca foi demonstrado que possa ser construída através de um processo de agregação consistente a partir de processos de produção a nível microeconómico. De facto, foi demonstrado (Fisher, 1992) que esta agregação só pode ter lugar na presença de condições extremamente especiais relativamente à estrutura microeconómica subjacente. A discussão de dois casos elementares será suficiente para identificar a natureza dos problemas envolvidos. Considere o leitor primeiro a função de produção com três fatores: 𝐹 (𝑘1, 𝑘2,𝑚), onde 𝑘1 e 𝑘2 são duas entradas de capital e 𝑚 é mão-de-obra. A questão é se existe um ‘índice’ de capital, ou seja, se existe uma função 𝐺(𝑘1,𝑘2) e uma função de produção de dois fatores 𝐻(𝐾,𝑚), de modo a que:

𝐹(𝑘1,𝑘2,𝑚)=𝐻(𝐺(𝑘1,𝑘2),𝑚).

Fisher (1992, p. 46) chama a atenção para uma condição necessária e suficiente (relativa a uma propriedade das segundas derivadas da função de produção). Não há necessidade de reproduzir esta condição aqui. Apenas notamos que, de um ponto de vista estritamente económico, não há qualquer argumento a favor da adoção desta condição: ela implica simplesmente uma redução arbitrária da dimensão espacial de todas as funções de produção possíveis.

Outro caso simples é o seguinte. Consideremos duas funções de produção com três fatores 𝐹𝑖 (𝑘1i, 𝑘2i, 𝑚𝑖), onde 𝑘1𝑖 e 𝑘2𝑖 são entradas de capital e 𝑚𝑖 são entradas de mão-de-obra, as imagens das funções 𝐹𝑖 (𝑘1i,𝑘 2i,𝑚𝑖) não têm de ser escalares: podem ser vetores. A questão é se existe um ‘índice’ de capital, ou seja, se existe uma função 𝐺(𝑘11+𝑘12,𝑘21+𝑘22) e uma função de produção de dois fatores 𝐻(𝐾,𝑚1+𝑚2) que depende apenas de ‘capital’ e de mão-de-obra tal que:

𝐹1(𝑘11, 𝑘21, 𝑚1)+𝐹2(𝑘12,𝑘22,𝑚2)= 𝐻(𝐺(𝑘11+𝑘12,𝑘21+𝑘22),𝑚1+𝑚2).

Mais uma vez, a condição necessária e suficiente é muito forte. Além disso, no caso particular em que a empresa 1 produz apenas a mercadoria 1 e a empresa 2 produz apenas a mercadoria 2, “a fronteira de possibilidade de produção para todo o sistema consistirá apenas de valores estáveis; os preços relativos da produção serão fixos […] e não é surpreendente que a agregação da produção seja possível” (Fisher, 1992, p. 135). Se, além disso, a mão-de-obra for o único fator primário, ou seja, se todas as mercadorias exceto a mão-de-obra forem produzidas, a função de produção agregada existe se e só se a teoria do valor-trabalho for válida! Este é um resultado que tem desempenhado um papel significativo na controvérsia entre as duas teorias de Cambridge sobre o capital (para um relato resumido, ver Harcourt, 1972 e Kurz e Salvadori, 1995, cap. 14). A secção seguinte é dedicada a este tópico.

 

2. O problema do capital

Vários resultados analíticos emergiram da controvérsia sobre capital entre os dois campos de Cambridge que vão contra as “crenças acarinhadas” dos teóricos neoclássicos em relação à repartição dos rendimentos e à escolha de técnicas de produção. Em poucas palavras, os resultados são os seguintes [10].

O resultado que atraiu considerável atenção entre os participantes no debate naqueles anos foi a possibilidade de “retorno das “técnicas”, ou seja, a possibilidade de que toda uma técnica (ou sistema de produção) possa ser ótima a dois valores diferentes da taxa de lucro, enquanto não é ótima a valores intermédios. A consequência é que as várias técnicas, ou seja, as várias combinações de trabalho e capital, não podem geralmente ser ordenadas monotonamente com a taxa de lucro (ou melhor, com o rácio 𝑤/𝑟, onde 𝑤 é a taxa de salário real e 𝑟 é a taxa de lucro). Uma série de consequências “infelizes” para a teoria marginalista da produção e distribuição de rendimentos derivam deste resultado aparentemente puramente lógico-formal. Em particular, a direção da mudança nas ‘proporções dos inputs’ 𝑁 e 𝐾 não pode ser unicamente correlacionada com mudanças nas variáveis da repartição 𝑤 e 𝑟. Isto contradiz o princípio neoclássico de substituição entre fatores de produção, normalmente invocado tanto na microeconomia como na macroeconomia, ou seja, um princípio que está legitimamente entre as “crenças queridas” de Blanchard e Summers. De acordo com este princípio, um aumento (diminuição) da taxa salarial em relação à taxa de lucro induz os produtores que desejam minimizar os custos de produção a empregar proporcionalmente menos (mais) trabalho, que como resultado do aumento em 𝑤/𝑟, se tornou o fator de produção relativamente mais caro, e mais “capital”, que se tornou o fator de produção relativamente mais barato. Ou seja, como resultado do aumento em 𝑤⁄r, devemos observar a utilização de técnicas de produção mais “capitalistas”. Consequentemente, devemos observar um aumento do número de trabalhadores desempregados à medida que são “substituídos” por máquinas.

O princípio da substituição está subjacente às funções padrão, não por acaso denominadas “bem-comportada”, de procura de serviços de fatores que são inversamente elásticos no que diz respeito ao seu preço. Por outro lado, com o fenómeno de reversão das técnicas, a função de procura de um fator pode não ser inclinada para baixo em todo o seu domínio, uma vez que pode ter traços de inclinação positiva. Assim, uma diminuição do salário real pode não implicar necessariamente um aumento da quantidade exigida de mão-de-obra, ao contrário do que nos diz a teoria neoclássica. Os resultados da controvérsia sobre o capital têm sido ocasionalmente descritos como estéreis, como pouco mais do que curiosidades matemáticas, e em qualquer caso irrelevantes para a compreensão do que está a acontecer no “mundo real lá fora” e para a conceção de políticas laborais ativas (ver referências em Kurz e Salvadori, 1995, cap. 14). No entanto, o resultado em análise mostra que não é este o caso. Se o emprego agregado aumenta na sequência de um aumento e não de uma diminuição dos salários reais, a sabedoria convencional sugere ao decisor político um medicamento que, longe de curar, acabaria por agravar a doença do desemprego involuntário.

O “retormo das técnicas” foi recebido com incredulidade nos círculos neoclássicos e levou Paul Samuelson a pedir a um dos seus alunos, David Levhari, que demonstrasse a sua impossibilidade (ver Levhari, 1965). Luigi Pasinetti, Pierangelo Garegnani e outros demonstraram que a demonstração de Levhari estava viciada. Visto a posteriori, e há uma certa ironia nisto, a contribuição de Levhari acabou por reforçar a posição dos críticos da teoria neoclássica.

Além do retorno das técnicas, outro resultado há muito discutido foi a reversão do valor do capital, chamada capital reversing. O fenómeno da reversão do capital diz respeito à possibilidade de que a relação entre a capital/trabalho (𝐾/L) ou entre o capital/produto (𝐾⁄Y) e a relação entre a taxa de lucro e a taxa salarial (𝑟/𝑤) seja uma relação crescente, ao contrário do que afirma a macroeconomia neoclássica. Mais uma vez, o rácio dos fatores de produção não está necessária e inversamente relacionado com o rácio dos “preços dos fatores de produção”. Mais uma vez, a proporção entre os insumos não está necessária e inversamente relacionada com a proporção de “preços de fatores” em cada uma das suas características. Além disso, o consumo per capita (isto é, por unidade de trabalho utilizada) e a taxa de juros de lucro 𝑟 podem estar positivamente correlacionados, ao contrário da sabedoria neoclássica convencional que quer que o consumo per capita aumente, ou pelo menos não diminua, uma vez que 𝑟 aumenta. Em última análise, o comportamento ‘perverso’ ou não ‘bem-comportado’ pode ser mais comum do que o evangelho neoclássico afirma [11].

Tendo chegado a este ponto, o leitor poderá perguntar-se em que consiste exatamente a crítica da teoria neoclássica feita pelos economistas de Cambridge (Reino Unido). Será que se trata apenas de destacar um conjunto de resultados analíticos, por mais significativos e abrangentes que sejam, ou será que há mais do que isso? Ao nível mais profundo, a crítica da teoria neoclássica expressa uma refutação da cosmovisão neoclássica de como funciona a economia de mercado livre: o tipo de “forças” que seleciona (em particular, as preferências dos agentes individuais tomadas isoladamente uns dos outros) à custa de outras forças (tais como o poder económico), a metodologia individualista adotada, e o método analítico utilizado. Mais especificamente, implica um ataque a uma utilização ilegítima da “cláusula ceteris paribus” que não tem em devida conta as condições rigorosas que devem ser aplicadas a fim de que se possa mudar o preço de uma única mercadoria ou de um só fator de produção sem que nada mais se altere no sistema de preços. Se estas condições não se verificarem, então como um preço muda, outros preços devem também mudar: ceteris deixa de ser paribus. Por conseguinte, os resultados obtidos através da utilização indevida da cláusula ceteris paribus no sentido acima explicado são necessariamente enganadores, não só quantitativamente, mas também qualitativamente: podem levar o teórico a postular formas funcionais de relações entre variáveis económicas que são significativamente diferentes daquelas derivadas num quadro de equilíbrio geral. Escusado será dizer que os resultados obtidos a partir de uma análise de equilíbrio parcial conduzida em desacordo com as condições que garantem a sua validade teórica acabam por ser um guia altamente pouco fiável na tomada de decisões de política económica.

À luz dos resultados que surgiram no decurso da controvérsia da teoria do capital, as “leis” microeconómicas convencionais da procura de insumos e da oferta de bens finais produzidos são altamente problemáticas. O aparelho convencional de análise da oferta e da procura revela-se muito menos robusto do que muitos economistas contemporâneos estão inclinados a pensar.

As implicações destes “resultados negativos” para a teoria neoclássica vão muito além das questões do valor e da distribuição de rendimentos, o que não deve surpreender tanto, dado que estas questões formam o núcleo da análise económica. Em qualquer caso, outras áreas da economia política, tais como a teoria do comércio internacional, teoria do crescimento e desenvolvimento, teoria da tributação, etc., também têm estado sob a lupa dos críticos de Cambridge (Reino Unido) e de outros partes do mundo.

Como é óbvio, não faltaram respostas de autores que se consideram, ou são geralmente considerados, como pertencendo à chamada economia mainstream. Paul Samuelson admitiu a correção das críticas no seu artigo “A Summing up” (Samuelson, 1966). Ele e Edwin Burmeister ficaram particularmente fascinados com a possibilidade de uma relação positiva entre o consumo per capita e a taxa de juro. Isto foi visto como a mais espantosa de todas as “perversões” estabelecidas na controvérsia entre as duas  Cambridge. Nas suas Marshall Lectures, Robert Lucas (2002) sentiu compreensivelmente a necessidade de definir exatamente qual era o objeto da controvérsia sobre o capital l e, uma vez definido o objeto da controvérsia, quem é que tinha razão.

Segundo Lucas, o pomo de discórdia dizia respeito à natureza, heterogénea ou não, do capital. Se o cerne da questão era se o capital consistia ou não em meios de produção heterogéneos, ele admitiu – meu Deus! – que “a questão há muito que foi resolvida a favor do lado inglês do Atlântico” (Lucas, 2002, p. 56, a nossa tradução). Pace Lucas, a heterogeneidade dos bens de capital nunca foi uma questão de disputa entre os dois Cambridge! Surpreendentemente, porém, Lucas acrescentou que o capital físico deve ser tratado como se fosse um bem homogéneo. Lucas justificou esta viragem radical insistindo que o capital físico, tal como o capital humano, “deve ser considerado como uma força, não diretamente observável, que podemos postular a fim de considerar certas coisas que podemos observar numa forma unitária” (ibid., os três primeiros itálicos são nossos; ver também Lucas, 1988, p. 36)

A intervenção de Lucas levanta questões metodológicas complexas que não podemos abordar aqui devidamente. Limitamo-nos a questionar se existem limites e, em caso afirmativo, quais são esses limites para a arbitrariedade do economista teórico na seleção dos axiomas sobre os quais construir os seus modelos interpretativos da realidade. Em qualquer caso, o facto é que Lucas optou por abordar o problema do capital na teoria neoclássica, ignorando-o abertamente.

Andreu Mas Colell (1989), por outro lado, salientou que a relação entre a relação capital/trabalho e a taxa de rendimento do capital pode assumir praticamente qualquer forma. Isto implica que a “função de procura” do capital em termos de taxa de juro não pode ser negativamente simétrica no ponto em que intersecta uma dada “função de oferta” de capital. O equilíbrio resultante, assumindo que é único, seria instável. Neste ponto, o leitor pode legitimamente perguntar, com Marshall, qual é o poder explicativo de um equilíbrio instável.

Com o passar do tempo, um número crescente de economistas seguiu as pegadas de Lucas e optou simplesmente por ignorar os resultados das disputas de Cambridge sobre a teoria do capital. Esta escolha significou que o conhecimento do problema é muito baixo hoje em dia, particularmente entre os economistas mais jovens. Estes últimos geralmente possuem apenas noções vagas do que estava a ser discutido, quais eram os resultados e como estes poderiam influenciar o seu trabalho de investigação.

No entanto, os problemas que afligem a economia neoclássica não se ficam por aí. Como mostramos na secção seguinte, mesmo no contexto de uma taxa de juro zero (ou taxa de lucro), “crenças estabelecidas” geralmente não podem ser sustentadas, como Arrigo Opocher e Ian Steedman demonstraram no seu recente livro Full Industry Equilibrium (2015; ver também o simpósio dedicado a esta matéria em Metroeconomics em 2017).

(continua)

___________

Notas

[1] Vários economistas salientaram, a nosso ver com razão, que a crise foi parcialmente alimentada pela teoria macroeconómica contemporânea, baseada nos seus modelos DSGE, que deram o corpo teórico para a política económica dos bancos centrais, governos e instituições supranacionais. Estes modelos não permitem a ocorrência de crises financeiras e, portanto, cegam os profissionais à possibilidade e à atualidade de tais crises. Ver neste contexto, especialmente Buiter (2009) e, mais recentemente, Alan Kirman (2011) e Paul Romer (2015; 2016). Paul Krugman e Joseph Stiglitz também expressaram repetidamente o seu desencanto com a macroeconomia moderna.

[2] Hyman Minsky, na sua obra Stabilising an Unstable Economy ([1986] (2008), esclareceu porque é que as economias capitalistas com um sistema financeiro sofisticado são propensas à instabilidade que emerge desse sistema e interage com a parte real da economia.

[3] Há também escolas de pensamento que evitam este e outros pressupostos mencionados abaixo. Num breve artigo como este, não podemos cobrir todos os diferentes desenvolvimentos na área em consideração. Por conseguinte, salientamos que nem todas as críticas feitas se aplicam indiscriminadamente a cada uma das muitas escolas de pensamento desenvolvidas nos últimos anos, também como reação ao fracasso da teoria em explicar a grande recessão.

[4] Para o que se segue, ver também a reconstrução de David Laidler (2009) sobre o motivo pelo qual a macroeconomia moderna se desenvolveu como se desenvolveu e a crítica de Alan Blinder (1987) a Lucas e a sua defesa de Keynes.

[5] Blinder (1987, p. 135) escreveu: “Devemos restringir-nos às micro fundamentações que excluem as colossais falhas do mercado que criaram a macroeconomia como uma subdisciplina?”

[6] Além disso, os autores clássicos não apresentaram a ideia de relações quantitativamente definidas entre o preço de uma coisa e a quantidade da mesma exigida ou oferecida no mercado.

[7] O sucesso do livro de Piketty (2014) pode ser atribuído, pelo menos em parte, à negligência das questões relacionadas com a distribuição do rendimento e da riqueza na economia, que estavam sob o feitiço do agente representativo.

[8] Forni e Lippi não afirmam que a agregação é má per si, mas que a agregação baseada no agente representativo é.

[9] Gorman (1961) identificou as condições necessárias e suficientes para tratar uma sociedade de agentes maximizadores da utilidade como se fosse constituída por um único indivíduo “representativo”. Partir do princípio de que as preferências têm a forma polar gormaniana de se agarrar às ‘micro fundamentações é claramente um caso grosseiro de escolhas deliberadamente ad hoc. (As preferências homóticas, que são amplamente utilizadas neste tipo de literatura, satisfazem as condições do Gorman).

[10] Quanto ao quer se segue, veja-se Kurz e Salvadori (1995, cap. 14), Harcourt (1972), Garegnani (1970) e Petri (2016).

[11] Não estamos aqui preocupados com o problema que tem sido chamado a “probabilidade” de comutação, que é uma questão espinhosa. Para efeitos deste artigo, é suficiente indicar casos que contradizem as “crenças acarinhadas” acima mencionadas.

 


Os autores

Heinz D. Kurz [1946-] é um economista alemão, professor emérito no Centro Schumpeter da Universidade de Graz, tendo também lecionado em universidades no estrangeiro (v.g Roma, Manchester, Paris, México, Leicester, Nice, Pisa, Tóquio). É doutorado pela universidade de Kiel. Publicou numerosos artigos em jornais, e vários livros, entre os quais se destaca The Theory of Production (em co-autoria com Neri Salvadori). É co-fundador e editor-chefe do European Journal of the History of Economic Thought (Londres: Routledge) desde a sua fundação em 1993 (desde 2005 a revista é abrangida pela SSCI). Editor geral dos trabalhos não publicados e correspondência de Piero Sraffa, uma tarefa realizada em nome da Cambridge University Press e do Trinity College, Cambridge (três vols. com cerca de 2.000 págs). (para mais detalhe ver aqui)

Neri Salvadori é membro correspondente da Accademia Nazionale dei Lincei desde 2016 e é Professor de Economia na Universidade de Pisa, Itália (até 2021, quando se aposentou). É autor ou editor de vários livros, incluindo Theory of Production (co-autoria com Heinz D. Kurz), Theory of Growth and Accumulation de Ricardo e Elgar Companion to David Ricardo (co-edição com Heinz D. Kurz). Atualmente faz parte dos conselhos editoriais da Metroeconomica, a revista Europeia de História do Pensamento Económico, a revista de economia pós-keynesiana. Também lecionou nas Universidades de Nápoles, Catania, Denver e no Marritime University Institute, Nápoles. Foi professor visitante, entre outras, na Universidade de Graz, na Universidade Nacional Autónoma do México (UNAM), na Universidade de Santiago de Compostela, na Universidade de Paris-X-Nanterre, na Universidade de Nice, na Universidade Meiji (Tóquio). Os seus principais interesses de investigação envolvem a teoria da produção, a teoria do crescimento e a teoria da concorrência. Nos últimos anos, contribuiu também para a história do pensamento económico, nomeadamente no domínio da história da economia clássica e da história da teoria do crescimento. Recebeu o Prémio Linceo em 2004.

Leave a Reply