As políticas neoliberais postas em prática por Thatcher e
Reagan serviram bem a seus propósitos. Mas era preciso mais: uma nova variante
de teoria econômica que acrescentasse alguma legitimidade científica às
políticas atuais.
Para tanto, havia dois pré-requisitos que a teoria deveria
abordar para que fosse considerada realista e contemporânea, numa época em que
o mundo da economia era, como sugerido por Paul Volcker, caminhando para um
pouco de desintegração.
Primeiro, a teoria econômica deveriam se distanciar da idéia
de que uma economia poderia ser gerenciada racionalmente. Em segundo lugar,
deveria expor um modelo de economia em que restrições regulatórias na
acumulação de capital e todas as formas de restrições democráticas sobre
mercados desregulados pareciam ser não apenas ineficientes, mas também sem
sentido.
Ambos os pré-requisitos foram descritos por um modelo
formalista (o qual surgiu em múltiplas formas, todas elas adornadas por uma
complexidade matemática impressionante), na qual o capitalismo se apresentava
segundo uma de duas alternativas: ou como um sistema estático de mercados conectados
em um estado de equilíbrio permanente, mas sem uma representação temporal
específica; ou como um sistema dinâmico, movendo-se conforme a seta do tempo,
mas representando apenas um único indivíduo (chamado agente representante) ou
um único setor. Em suma: uma geração de economistas cresceu com modelos
econômicos que poderiam trabalhar com complexidade ou com exatidão temporal,
mas nunca com ambos ao mesmo tempo.
O modelo neoliberal traz consigo “fraudes” científicas conhecidas
como Hipótese de Mercados Eficientes (EMH, na sigla em inglês), Hipótese das
Expectativas Racionais (REH, em inglês) e Teoria do Ciclo de Negócios Real
(RBCT, em inglês). Em verdade, não passam de teorias mercadologicamente
impressionantes, cuja complexidade matemática teve sucesso por longos anos, ao
esconder suas fraquezas intrínsecas.
A grande vantagem de tais modelos era que eles traziam uma
descrição do capitalismo tão complexa matematicamente que os usuários poderiam passar
a vida toda imersos em suas estruturas formais, infinitamente retorcidas, sem
que percebesse que, seguindo o roteiro sobre o qual foram construídos, seus
modelos nunca poderiam sequer iniciar uma simulação do capitalismo real, como
ele é.
Agora, todos os modelos são abstrações, e seus propósitos são
simplificar. Na física, por exemplo, começa-se com muitos cenários
simplificados (por exemplo, desconsiderando atrito, ou mesmo gravidade) de
maneira a conseguir entender algumas leis básicas da natureza. Mas então
passa-se firmemente ao relaxamento das proposições irreais. À custa de maiores
complexidades, os físicos obtêm variáveis úteis para suas teorias.
Não apenas em economia. Porque em teoria econômica, o
processo de relaxar gradualmente restrições simplesmente não funciona. Se a
ausência e gravidade é um dos exemplos mais restritivos na física, o
equivalente em economia seria a ausência do tempo. Ou que todos os consumidores
e indústrias são idênticos. Mas, diferente da física, que pode relaxar
restrições para chegar mais perto da verdade, a economia não pode. De fato, há
um teorema notável em economia provando que modelos econômicos solucionáveis
não podem manejar tempo e complexidade ao mesmo tempo.
O fato de tal teoria ser um dos pilares da economia mundial
atual, torna importante que qualquer modelagem econômica matematizado que não seja
capaz de descrever transações em tempo real, por diferentes pessoas e
indústrias, deve se divorciar de qualquer teoria sobre crises.
Além disso, uma crise é, por natureza, um fenômeno dinâmico
que afeta uma multitude de pessoas (e de indústrias) na sociedade, que se desenrola
em tempo real. As crises requerem uma
falha de coordenação entre pessoas e setores diversos, um colapso na capacidade
coletiva da economia em utilizar seus recursos.
Então por que a teoria neoliberal é tão louvada, atualmente?
Por dois motivos. O primeiro é fácil de discernir: sabendo-se que o “troféu” da
teoria econômica moderna não deixa espaço para Crises e descreve o capitalismo
como um sistema interconectado de mercados em equilíbrio estático, ele serve como
um fundamento ideológico fundamental para o livre mercado. O segundo, menos
óbvio, tem a ver com o dinheiro tóxico de Wall Street.
Esse dinheiro tóxico tomou a forma das infames CDOs. Após
criar esses títulos, retalhando no mesmo pacote dívidas prime e subprime,
provenientes de uma variedade enorme de pessoas e negócios, utilizavam-se
fórmulas matemáticas de uma complexidade assombrosa, para valorá-las em termos
de preço e de risco. Foram criadas por engenheiros financeiros que trabalhavam
para Wall Street (J.P. Morgan, Bank of America, Goldman Sachs, etc.).
No entanto, para que essas formulas pudessem ser usadas,
certos dados deveriam ser estimados. Primeiro e mais importante, qualquer probabilidade
de variação negativa de qualquer papel que fizesse parte do pacote não poderia
estar relacionada à probabilidade de qualquer outro papel variar negativamente,
também. Isto é, o que ocorreu em 2007-2008 seria... Impossível!
Alguém poderia se perguntar por que pessoas brilhantes e cujas
carreiras dependiam de uma boa reputação embarcaram numa aventura tão cheia de
estimativas em que não poderiam confiar plenamente. A resposta, novamente, é dupla.
Primeiro, estes operadores de mercado eram prisioneiros de um comportamento de
horda e poderiam perder seus empregos caso não seguissem o fluxo do mercado.
Segundo, durante os ciclos de alta a profissão de economista foi vendida como
uma superstição matemática, a qual armava os corretores com uma confiança
super-humana – e super-insana, capaz de levar à lona o sistema que os mantinha
vivos.
Rubem L. de F. Auto
Fonte: livro “O Minotauro Global”
Nenhum comentário:
Postar um comentário