社会は「計算」できるか?

  • Facebook
  • Twitter
  • はてなブックマーク
  • Delicious
  • Evernote
  • Tumblr

「タメグチ」的ガバナンスの歴史に、長谷川敦士さんからトラックバックいただきました。(ごぶさたしてます。)

磯崎さんによる、ヨーロッパ的なガバナンスのしくみが「なぜ」生まれていったかについての、情報処理コスト力学の観点から分析。 (中略)
磯崎さんはそうは言っていませんが、情報処理コストの概念をいれている時点で、力学系として解釈した考え方だと思った。

さすが、物理学の人。するどいですね。実は、そのへんに発想(妄想)のヒントがありまして。



最近はまっている「放送大学」なんですが、この大学、天文学が異様にディープでして、天文学だけで3つ以上授業があります。特に、放送大学/東京大学名誉教授の杉本大一郎氏は、「文系の人にも役に立つ天文学」という視点を意識されていらっしゃるようで、確かに、いろいろ非常にインスパイアされるところがあります。
例えば、

  • 最も遠いところで百何十億光年先にもなる天体から来る情報というのは ものすごく少ないのに、そこからあれこれ推測するプロセスだとか、
  • 日本の宇宙関係予算は(少なくはないが)アメリカに比べて決して多くはないわけですけど、そこから知恵を絞って、ニッチな観点から低予算で効率的な観測をして世界に並ぶ業績をも上げているところとか、
  • X線とか(長谷川さんもやってらっしゃった)ニュートリノとか、「貫通しちゃうから観測できるわけないじゃん!」てなことを言わないで、いろいろ工夫するところとか。

それに比べれば、「実際にでかけていけて、ものすごく大量の情報を発信している企業を分析するなんてのは、簡単もいいところだ」、という気もして、(ま、実際にはいろいろ別の面で大変な訳ではありますが)、アナリスト的な方が見ても面白い気がします。

この「ガバナンスの情報処理コストモデル」を思いついた直接のきっかけは、昨年再放送していた、杉本教授と自然科学研究機構国立天文台の牧野淳一郎教授による放送大学の特別講義「世界最高速の計算機を創って進める科学」です。
杉本教授は、この特別講義で紹介されている「GRAPEプロジェクト」のそもそもの発端となられた方でいらっしゃるようです。

注:
GRAPEというのは「GRAvity PiPE」の略で、天体の重力多体問題専用の計算機で、重力相互作用の計算に特化したパイプラインを組み込んだチップを使って、高速に重力多体問題を解けるようにしたコンピュータ。
これを使ったのが、4D2Uプロジェクト

牧野教授が、国立天文台理論研究部の小久保英一郎准教授を訪問して、インタビューしているんですが、「だいたい、どんな計算にどのくらいの時間がかかるのか?」という牧野教授の質問に、小久保准教授は、
「ひと世代前のGRAPEで、200万個の星を50億年間分計算するのに10か月くらい。」
と、答えてらっしゃいます。
天体は、遠く離れているし、デカいし、時間のスケールが長いので、「実験」ができないわけですから、これをコンピュータでシミュレーションしようというのは、当然というか、非常にうまい方法かと思います。
授業では、このGRAPEを発展させたMD-GRAPEというプロジェクトの実験も紹介されてます。

注:
MDというのは、分子動力学(Molecular Dynamics)のこと。

牧野教授が、理化学研究所高速分子シミュレーション研究チームの泰地真弘人氏にインタビューして、「イモチ病の菌がつくるタンパク質分子と、農薬分子の相互作用」や「タンパク質の折りたたみ」のデモ動画を見せてくれています。

このMD-GRAPEでは、分子を構成する原子間に働く力を「古典的に」計算してシミュレーションしており、厳密な計算ではない(量子力学等まで考慮してないという意味でしょうか)とのことですが、それでも分子量が非常に小さい10アミノ酸のタンパク質(タンパク質は、アミノ酸が一次元的につながったもの)が原子間に働く力で折りたたまれて安定な構造になるのを計算するのに3か月かかるとのこと。(数年前のインタビューとのことですが。)

なにせ、原子間に働く力を1ヘムト秒(1000兆分の1秒)刻みで計算して、マイクロ秒レベルまで観察したいということで、10億刻みくらいの計算をしなければならないということです。

ちなみに、この授業に登場したMDGRAPE-3というチップは、1チップ230Gflopsのものが1筐体に12個で2.5Tflopsとなっており、これがたくさん集まって、全体でP(ペタ)flops弱の性能を出しているということ。

ポイントは、専用のLSIとすることでメモリとのやり取りを少なくしていること、1チップで(パソコンだと8回くらいのところ)720回の計算を並列でやっていること(つまり、パソコンの100倍弱くらいの並列度)、不必要な部分は普通のパソコンより低い精度で計算してその分高速化していることなど、とのことです。

さて、杉本教授のまとめ的なお話(ビデオの28分30秒あたり)で、この研究の意義に触れて、

それをもっと大きい文脈で見ると、システムの構成要素の間に影響がある、力が働いていると、全体としてある構造ができてくる。その話はですね、ホラを吹くと、人と人との関係でもって社会の動きがどのようにしてできてくるか、そういうようなことまでつながるであろう、と。そういうことを基礎としてきちんとやりましょうと。(以下略)

といったお話をされてます。
つまり、単に、天文学や化学のシミュレーションじゃなくて、どんどん速いコンピュータをつくっていけば、分子→細胞→人間→社会といった、より大きなものまで研究できるようになるかもね、といったお話かと思います。
このGRAPEやMD-GRAPEの予算は、5億円、10億円といった単位のようですから、1150億円の汎用京速計算機に比べたら、(特定の種類の計算に特化しているとはいえ)ベラボウにコストパフォーマンスがいい。
一方で、では、このノリの研究を続けていけば、「社会」のシミュレーションができるかどうか、というと、ちょっと常識のある人なら「無理だろ」と言うと思うわけです。
社会というのは、データも非常に複雑なので、株価など、実際の「予測」なんかに使うというのは、そういうアプローチでは極めて困難かと思います。
しかし、良く考えてみると、上記のGRAPEプロジェクトなども、正確な「予測」をしようというものというよりも、宇宙背景放射のごく小さな揺らぎから始めて物質間に働く重力をシミュレーションすると、現在の宇宙の大規模構造と非常に似たような構造になるとか、地球に火星規模の天体が衝突したら衛星(月)ができるのか、といった、比較的マクロな「構造」のお話だったりするわけです。
だから、「無理」と決めつけないで、では、どういう社会現象なら「計算」が可能かと前向きに考えると、百年単位のおおまかな「構造」の変化の話なら、こういったアプローチで解ける可能性があるのかな、と。
例えば、人口密度の「ゆらぎ」(というより「違い」)から、アジアとヨーロッパのガバナンスの考え方の違いが生成されるかどうか、仮にアメリカ大陸が存在しなかったら、どういった社会になっていたのか、といったことを、情報処理コストの微分方程式的なもので、要素(人間)間のやりとりとして考えてやるというような。
ハイエクやミーゼスの経済計算論争などからもわかるとおり、「社会」においては、一般均衡など非常に簡単な話でもNP問題になって、まともにやろうとすると、すぐ、ものすごい計算量が必要になっちゃうわけですが、社会というのは、そんな膨大な計算処理をするわけはなく、そうした情報処理をしなくて済む「構造」を作るはずなわけです。
(それが、ガバナンスとか「信用」といったものになるかと思いますが。)
パラメータとしては、とりあえずは人口、農産物の収穫度、武器、交通手段の技術革新などを入れてやるといった、初期の「信長の野望」くらいのイメージでいいんじゃないかと思います。
要素間に働く力が重力だけ、電磁気力だけ、というのに比べるといろいろ要素が多そうですが、「刻み」は、四季単位とか月単位くらいで十分な気がするので、1万年分計算してもたった12万刻みくらいだとすると、現在又は近未来のコンピュータの処理速度でも、なんとか行けそうな気もするなあ、と思った次第です。
(ではまた。)

[PR]
メールマガジン週刊isologue(毎週月曜日発行840円/月):
「note」でのお申し込みはこちらから。

社会は「計算」できるか?” への6件のコメント

  1. いつも拝読しています。
    一番難しいのは技術革新をパラメータ化する所なのでしょうか。技術革新のない動物の集団だと簡単なのですが、人間はモノを作ってしまいます。そうこう考えていくと、コンピュータ発明の人類に与えた影響の大きさが気になってしまいます。

  2. コメントありがとうございます。
    なるほど、生物集団モデルなんかは、現在のコンピューティングパワーでも、結構イケちゃうんでしょうね。
    「人間社会」なので、難しくしようと思えばいくらでも難しくなるんでしょうけど、技術革新は、「何年頃に馬が飼いならされて、陸上の移動コストがうんぬん」といった感じで、実際の年代にあわせて外生変数で与えてもいいのかな、と思ったり。(どうせ、過去の細かい正確なデータは取れないでしょうし、最終的にすべて情報処理コストに落とし込むとすると。)
    難しいのは(面白そうなのは)、出て来た結果をもとに、それが「民主主義」なのか「独裁制なのか」といった「構造」を、何のデータをどう見て判断するのか、とかかなあ、とも思います。
    >そうこう考えていくと、コンピュータ発明の人類に与えた影響の大きさが気になってしまいます。
    「コミュニケーションコスト」がゼロに近づいて、「思考のコスト」はその(アホな)まま、といった場合に、社会がどう対応するのか、というのがシミュレーションできたら、大変面白いんじゃないかと思います。
    (ではまた。)

  3.  このような話を読むとハリ・セルダンの歴史心理学を思い出しますね。(アシモフ著のファウンデーションシリーズに出てくる架空の学問です)
     確か「集団として人類を扱う」とかなり確かな「予測」が可能になる、と作中説明されていたかと思います。
     ローマクラブの「成長の限界」あたりがきっかけで、1970年台の日本で「未来学」が流行った(?)ように理解してるのですが、間違った理解かもしれません。

  4. ファウンデーションシリーズの話が出ちゃ黙ってられませんw
    ハリ・セルダンは死後も帝国の危機のたびに「予想通り!」とばかりにホログラフで現れ、指導者たちが「セルダンは神」と頼り切ってたところに突如セルダンの予想が外れ、あっけなく帝国は崩壊。
    これ以上のネタバレは自重しますが、ポイントは心理歴史学の対象外だった「個の力」なわけです。
    このあたり、先のコメントにもありました「技術革新のパラメータ化の難しさ」と共通するのかも知れませんし、あるいはちょっと前に流行った「ブラック・スワン」が歴史に与える影響の難しさ、ということなのかも知れません。

  5. システム同定の演繹/帰納アプローチ

    「なるべくシンプルなモデル(=少ない変数、かんたんな方程式)で説明しよう」という…