如何にしてコンピュータは経済学を変え、そして変えなかったか

という記事がINETブログに上がっている(H/T Economist's View、原題は「How the computer transformed economics. And didn’t.」)。著者は、最近このテーマに関する論文をRoger Backhouse(バーミンガム大)と共著したBeatrice Cherrier(カーン大)。
記事でCherrierは、コンピュータの発達が経済学にもたらした変化を認めつつも、思ったほど変化をもたらさなかった点に光を当てている。コンピュータの発達がもたらした変化として、経済学における新たな技法――多項式プロビット、完全情報最尤法のようなかつて経済学者が夢見た技法、および、シミュレーション、機械学習、マッチングアルゴリズムのようなかつて考えられもしなかった技法――や、(本ブログでは1/17エントリで紹介した)ジャスティン・フォックスのブルームバーグ記事で描写されたような実証経済学の興隆、を挙げた後、彼女は以下のように書いている。

Though this bears unmistakable element of truth, the idea that computerization fostered the rise of applied economics seems somewhat simplistic. While macroeconometricians like Modigliani had yearned for more computational power, better storage, convenient software, the leap done by the computer industry at the turn of the 1980s did not prevent the marginalization of Keynesian type of econometrics in the wake of the Lucas critique, nor that of the other computationally-intensive field of the 1970s, computational general equilibrium. The former was replaced with calibration, often viewed as a second best. And paradoxically, the hot methodological debate pervading microeconometrics in the early 1980s ended up in the rise of quasi-experiments, a method minimally demanding in terms of computational power.
Tying the purported rise of economics with the spread of computers also overlooks the possible transformative effects of computers on theory. In mathematics, physics and biology, automated-theorem proving, numerical or algorithmic proofs, and simulations have become well-accepted scientific practices. In economics, by contrast, that proofs are demonstrated with the help of a computer is carefully concealed in published papers. In spite of a long tradition dating back to Guy Orcutt and Jay Forrester, simulation is merely acceptable as an empirical illustration, or when analytical proofs are impossible to reach. Complaints that economists have been unable to change their idea of what a “proof” should be, that they had stick to the Hilbertian paradigm instead of jumping on the algorithmic bandwagon, or shun numerical methods in their most prestigious publications abound. If a few computer-based approaches, like mechanism design and experimental economics, have become mainstream, a galaxy of new approaches, from agent-based modeling to automated theorem proving, computational game theory or computational social choice have hitherto wandered on the margins of the discipline, though there are hints that the situation is slowing evolving.
(拙訳)
この話には間違いなく真実の要素が含まれているが、コンピュータ化が応用経済学の勃興を促進した、という考えは些か単純過ぎるように思われる。モジリアニのようなマクロ計量経済学者は、より高い計算能力、大きな記憶容量、便利なソフトウェアを切望していたが、1980年代の転換期にコンピュータ産業がもたらした飛躍は、ルーカス批判後のケインズ型計量経済学の退潮に歯止めを掛けることはなかった。また、もう一つの計算能力集約型の研究分野である計算一般均衡の退潮についてもやはり歯止めを掛けることはなかった。前者はカリブレーションに取って代わられたが、それは次善の策と見做されることが多い。そして皮肉なことに、1980年代初めにミクロ計量経済学で盛んだった手法をめぐる論議は、計算能力という点では最小限しか必要としない手法である疑似実験の勃興に行き着いた。
経済学の興隆と言われているものをコンピュータの普及と結び付けることは、コンピュータが理論に及ぼせたはずの転換的な影響をも無視している。数学や物理や生物学では、自動定理証明、数値証明もしくはアルゴリズムによる証明、ならびにシミュレーションは、科学的慣行として広く受容されている。対照的に経済学では、コンピュータの助けを得て示された証明は掲載論文の中では注意深く隠されている。ガイ・オーカットやジェイ・フォレスターの時代に遡る長い伝統があるにも関わらず、シミュレーションは、実証的な説明として、もしくは解析的証明が不可能な場合に受け入れられているに過ぎない。「証明」が如何にあるべきかについて経済学者が考えを変えようとしないこと、彼らがアルゴリズムの興隆に乗らずにヒルベルト的なパラダイムを墨守していること、彼らの最も権威ある学術誌が数値手法を締め出していること、に関する不平不満は満ち溢れている。メカニズムデザインや実験経済学といったコンピュータベースの手法が幾つか主流派に仲間入りしたにしても、エージェントベースモデルから自動定理証明、計算ゲーム理論、計算社会選択に至る綺羅星のような新たな手法は、状況が少しずつ改善しているという兆しは見られるものの、今のところ経済学の辺境を彷徨っているに過ぎない。


さらに、経済学者の夢が実現しなかった、もしくは実現が遅れた例として以下を挙げている。

The history of computerization in economics has been riven with giant leaps, but also utopian hopes and over-optimistic predictions. In 1948, Wassily Leontief, the brain behind input-ouput analysis, thought the ENIAC could soon “tell you what kind and amount of public works were needed to pump-prime your way out of a depression.” In 1962, econometrician Daniel Suit wrote that with the aid of the IBM 1920, “we can use models of indefinite size, limited only by the available data.” In 1971, RAND alumni Charles Wolf and John Enns explained that “computers have provided the bridge between […] formal theory and […] databases.” The next challenge, they argued, was to use computer not merely for “hypothesis-testing,” but also for “hypothesis-formulation.” And Francis Diebold has recently unearthed 1989 lecture notes in which Jerome Friedman claimed that statisticians are “substituting computer power for unverifiable assumptions about the data.” All thing that have either not happened, or much more slowly than predicted
(拙訳)
経済学におけるコンピュータ化の歴史は大いなる飛躍を遂げてきたが、ユートピア的な希望や過度に楽観的な予測にも溢れていた。1948年に、産業連関分析の生みの親であるワシリー・レオンチェフは、ENIACが間もなく「不況から抜け出すための呼び水として必要な公共事業の種類と額を教えてくれる」ようになる、と考えていた。1962年に計量経済学者のダニエル・スートは、IBM1920の助けを借りて「利用可能なデータによってのみ制約される、無制限のサイズのモデルが使えるようになる」と書いた。1971年にランドOBのチャールズ・ウルフとジョン・エンスは、「コンピュータは、[…]公式理論と[…]データベースの間の架け橋を提供した」と説明し、次なる課題はコンピュータを「仮説の検定」のためだけではなく「仮説の定式化」のために使うことだ、と論じた。そして最近フランシス・ディーボルトが明らかにした1989年の講義ノートの中で、ジェローム・フリードマンは、統計学者は「データに関する検証不可能な仮定を計算能力で置き換えつつある」と主張した。これらすべてのことは、実現しなかったか、もしくは予想よりも実現がかなり遅れた。