にんじんブログ

にんじんの生活・勉強の記録です。

MENU にんじんコンテンツを一望しよう!「3CS」

にんじんの書棚「統計学を哲学する」

 データをまとめるだけでは帰納推論はできない。データの背後に一定の構造を「前提」することでそれが可能となるのだ―――といったようなことから、「因果」まで、表面的に統計学の教科書を撫でるだけではちっともわからない哲学的背景を教えてくれる本です。たいへんおすすめで、何度も読みなおしています。

 以下、過去記事から、要約です。

 

第一章 現代統計学パラダイム

 この記事では数学的な定義を行なわない。

大まかに言って統計学とは、数字や数学を用いてデータをまとめ、それに基づき推論するための学問である。(略)現代統計学には、「記述統計」と「推測統計」という二つの側面がある。

統計学を哲学する

 記述統計decriptive staticsとは、得られた膨大なデータを適切に要約し、真に必要とされる情報を抽出するための技術のことを言う。データ要約の種々の指標を統計量statisticsと呼び、たとえば標本平均・標本分散・標準偏差などがある。

 要約することで、二つのデータの連関が見えてくることがある。『つまり若干大げさに言えば、データの中に潜む規則性ないし法則をあぶり出す』ことができる。実証主義positivismの基本的な考え方は、科学的な言明は現実の経験や観測に基づかなければならない、ということだが、実証主義的見地からいえば、観測されたデータをそのようにまとめることこそ科学の目的であった。とはいえ、実証主義者の真の狙いは、それ自体は観測されないような概念を排斥することにあった。たとえば統計力学創始者のひとりであるボルツマンの時代、原子といったようなものは観察不可能であり、それは説明のために持ち出されたものに過ぎなかった。そんなものを持ち出して現象を理解できるようになるよりも、きちんと観察に基づいてまとめることが大事なのだ―――そのように噛みついたのが実証主義の親玉・エルンストマッハであった。

 この考え方を引き継いだのが記述統計の基盤を確立したカール・ピアソン。たとえばビリヤードをしてみよう。ここで観察できるのはボールが衝突し、当てられたボールが動いたということだけである。私たちは思わず「一つ目のボールの衝突が、二つ目のボールの運動を引き起こした」と言いそうになるが、「引き起こし」などどこにも観察できない。これを記述統計的にいえば、ある変数Xが他の変数Yと相関しているということ、両者の回帰直線の傾きが大きいというだけのことである。「相関から因果は導けない」といっているのではなく、そもそも因果など不要なのだ。相関は「引き起こし」ということについての厳密な定義を与える。

実証主義は、極端なデータ一元論である。すなわち、科学において「ある」と認められるのは客観的な仕方で計測されたデータとそこから導かれる概念だけであり、それ以外のものは人間の作り出した人工物に過ぎない、という考え方である。

統計学を哲学する

  この代償はヒュームによって指摘されていた。帰納推論の不可能性である。たとえば「学期中の学食は混むから今日も席はとれないだろうな」も無理だし、「治験の結果を見ると薬にはこんな効果があるようです」も無理である。なぜならまだ今日の昼の学食のデータは得られていないし、薬を使っていない人が薬を使ったデータも得られていないから。帰納的推論を可能にするところの、自然は過去・現在・未来いつでも同じように働くだろうという暗黙の前提を自然の斉一性uniformity of natureと呼んだ。しかしこの前提自体、過去の経験から得られたものではあるが。というわけで、実証主義者は自然の斉一性を前提できず、帰納的推論も不可能である。そしてそれは記述統計の限界でもある。データが来なければ記述統計は何もできない。

 

 推測統計とはデータをもとに未観測の事象を予測、推定する技術である。帰納的推論はデータのみからは正当化できず自然の斉一性を使う必要がある。そこでこの斉一性を確率モデルprobability modelとして定式化し、数学的に精緻化する。つまりデータというのはその背後にある確率モデルから一部を抽出してきたサンプルだと見られる。ただ、背後にある全体は私たちには見渡せないので、これを推測しようというわけだ。

  1.  サンプリングは同一の確率モデルからなされている
  2.  サンプリングはランダムである

 データのとり方をそういう風にしておくと、数学的には確率変数が独立同分布に従うindependent and identically distributed:IIDと仮定できる。IID条件は自然の斉一性の具体的内実であり、換言すれば、未観測な状況においても現在と同様な状況が成立するということである。

 当たり前だが、何千人の身長をすべて測ったところで、個々人の、たとえばあなた個人の身長が割り出せるわけがない。我々の関心は観測されたデータから背後にある未観測のデータの様子を知ることである。たとえば日本国民の平均身長などが考えられる。数百万人の身長の平均が全国民の平均身長に近いという発想はきわめて自然なことであろう。言い換えれば、データ数を増やせば増やすほど標本平均はそのバッググラウンドにある真の平均に近づいていくはずだ。実は、これはIID条件を仮定するだけで数学的に証明することができる。これを大数の法則という。しかも中心極限定理というより強いこともいえる(中心極限定理については機会あれば後で戻ってこよう)。

 私たちは大数の法則中心極限定理によって、「データをひたすらかき集め続ければガンガン近づくし、最終的には合う」という終局的な保証を得た。だが私たちはコインを無限回投げることはできない。もし無限回投げれば本当に表がでる場合の数は半々になるはずなのだが。そのようなわけで、私たちが与えられるのは100%の保証ではありえない。ここまではIID条件のみを仮定してきたが、たいていの推測統計はもっと強い条件を与え考察を行う。だが強い条件とはなにか。それは人間がひねり出した仮説であり、多分そうだろうというフィクションである。私たちがここで求めているのはもはや世界の真の記述ではなく、私たちの目的に資する程度に正確な値=近似値である。「sべてのモデルは偽であるが、そのうちいくつかは役に立つ」というのは統計学者ジョージ・ボックスの箴言である。私たちにとって偽であったときに本当に困るのは確率モデル、自然の斉一性である。もしこれが間違っていたら、私たちに帰納的推論は一切できない。

 IID条件→さらにそこに加える一定の制約→そしてそれがどのような分布族であるか仮定してしまう、という順序でどんどんわかることは増える。たとえばどんなふうに分布しているのかという分布族はいろいろな形があるからそこは統計の教科書を見ていただくことにしよう。

 

 世界はありのままには現れてこない。現れるのは私たちがそれに基づいて思考や推論を行うところの単位・自然種natural kindである。たとえば化学者は炭素や金、アルゴンなどの種に分類して化学反応を説明するように。つまり、各学問分野における「世界」は、当該分野における自然種によって構成される。さらに分節化の仕方は文脈によって異なるということである。統計学における諸々の分布族というのは自然種の役割を果たすといってよい。たとえばコイン投げの表・裏の分布族は、下駄を放り投げたときの表・裏の分布族と同じくベルヌーイ分布だと考えられる(もちろんパラメータは異なる)。つまり私とあなたが生物学者から見て同じホモ・サピエンスであるのと同じ意味で、二つの試行は同じことなのである。以後、統計学における自然種を確率種と呼ぼう。

 確率種は化学種のように物理的構成によって完全に性質が決定されない。実際、先ほど下駄を投げたときの話をしたが、フチで立つという可能性を無視している。もしその可能性を考慮するなら多項分布を用いるべきだ。すなわち、どのような統計モデルを用いるかは、我々の決め方にもよる。しかしこのことは確率種が「自然種」と呼ばれる資格がないことを意味しない。世界の分節化の方法はその学問によって異なるからである。多種多様の分布は統計の勉強をする学生をうんざりさせるが、もし周期表に原子が二つしかなかったら恐ろしく貧相な内容になっていたことだろう。

以上をまとめると、次のようになる。推測統計では、帰納推論を行うために、データの背後の斉一的な構造すなわち確率モデルを仮定することで、データとモデルからなる二元論的存在論を採用する。斉一性は確率モデルとして定式化され、さらにパラメトリック統計ではそれぞれ固有の関数型(分布型)を持つ確率種への類別される。化学者が化学反応を元素によって説明するように、統計学者は多種多様な帰納問題をそれぞれふさわしい確率種へと帰着させることで理解する。

統計学を哲学する

  自然種が実在するのか、それとも我々の作り上げ理論的措定物かについては議論がある。興味がある読者は、実在論と知識の自然化: 自然種の一般理論とその応用科学的実在論を擁護するを参考に。にんじんブログでも以前読んだことがある。

 

carrot-lanthanum0812.hatenablog.com

carrot-lanthanum0812.hatenablog.com

統計学を哲学する

統計学を哲学する

  • 作者:大塚 淳
  • 発売日: 2020/10/26
  • メディア: 単行本(ソフトカバー)
 

第二章 ベイズ統計 (①)

 確率モデルのあり方について仮説をたて、与えられたデータをもとにその仮説を評価することを通じて帰納的推論を行う。そのようなことを具体化するための方法論はベイズ統計、古典統計、モデル選択などいろいろの流派がある。

しかしその前にやっておかなければならないことがある。それは、前章で導入した確率モデルの数学的道具立てを、現実の帰納推論の文脈で具体的に解釈すること、すなわち、そもそも確率とは一体何であるのかを明らかにしておくことである。

統計学を哲学する

  確率とは集合論的に、数学的に定義されている。専門用語はともかく、そこでは確率というのは0から1の間の値をとる関数だとされた。だが、この大きさがそもそも一体何を意味しているというのか。まず確率の意味論semanticsを明らかにしよう。そしてこの点で生じる哲学的対立がベイズ統計と古典統計という二派に分かれさせるのである。結論からいえば、確率というものを、ベイズ統計では『信念の度合いを示す主観的な指標』として扱い、古典統計では『物事の起こる客観的な頻度』として扱う。短く言えば、主観主義と頻度主義の対立である。注意しておかなければならないのは、主観主義vs頻度主義とベイズ統計vs古典統計という対立は、前者が意味論的、後者が認識論的な対立であり、そもそも論理的には別々のものである。だから、別に古典統計がやっていることを主観主義的に解釈することに何か矛盾が生じるわけではない。

 さて、確率の主観主義的解釈である。

 彼らにとって、標本空間は命題から成る。たとえばサイコロを振るという試行について考えてみれば、標本空間Ω={1,2,3,4,5,6}とされる。このそれぞれの数字は「1が出る」という風に命題に対応する。確率関数はこれらの複合命題(たとえば「1が出る または 2が出る」)などに値を割り振る。そしてこれは信念の度合いを表すと解釈される。信念の度合いとは、簡単にいえば、当該命題をどの程度正しいと考えているかということだ。まず疑問が起こるのは「一体誰の信念なのか」ということであろうがこの点については心配いらない。確率関数はその解釈が許す範囲で自由に設定することが許されており、「1が出る」確率が他よりも圧倒的に高いと感じている人はそのように定義すればよい。

 しかしそうだとしても、私の、そしてあなたの『信念の度合い』など一体どのようにして数値化すればよいのか。そしてまた、それがなぜ「確率の公理」とやらに従わなければならないのか。この件については確率の哲学理論 (ポスト・ケインジアン叢書)が詳しい。簡単に述べればその一般的方法は「公正な掛け金」と呼ばれるものであり、命題Aが起これば一万円ゲットできる権利をあなたはいくらで買うか、というギャンブルで測られる。もし「来年の正月は雨!」を6000円で買ったとしよう。「来年の正月は雨じゃない!」を6000円で買うことはできない。なぜなら、こうなるとあなたは2000円必ず損をするからだ。というわけで、確率の公理は守られなければならない。

 確率をあいまいな信念の度合いとやらに任せることに不安を感じるかもしれない。その利点は、およそ命題として表せるものならなんにでも確率が割り当てられるということである。そして、もし目の前のコインが「1ばっかり」なら、私たちのコインに対する確率もアップデートすることができる。証拠をもとにしたアップデートこそ、ベイズ統計における「帰納的推論」の意味であり、ベイズの定理がその手引きを与える。

 

 実際に使ってみよう。あなたが商店街に行くと日曜クジをやっていた。二種類の壺A,Bがあり、それぞれ1割、3割ずつ当たりが入っている。毎週末どちらかの壺が使われるのだが、今日がラッキーデーなのかは全くわからない。あなたはこの前の日曜に試しにやってみたのだが、ハズレを引いてしまった。これを証拠Eと見て、この証拠をもとに壺がAであるという確率と、壺がBであるという確率はどのようにアップデートされるのか見てみることにする。

  •  クジを引く前、壺がAとBのどっちかなどということはわかるわけがないので、事前確率は半々としよう。:P(A),P(B)=0.5
  •  もしAだったら90%でハズレ、Bだったら70%でハズレ。:P(E│A)=0.9、P(E│B)=0.7。

 これをベイズの定理に当てはめると、証拠EのもとでのAの確率P(A│E)は56%、証拠EのもとでのBの確率P(B│E)は44%となる! つまりハズレを引かされた1回分、「これってハズレの多いほうの壺なんじゃね?」という疑惑が高まったわけだ。確率の変化によって分布にも変化が生じる。

 こうした作業を通して、私たちが得たものはなんだったのか。意味論ではなく、今度は認識論に移ろう。ベイズを用いた確率計算は、帰納推論を行なうためのルールすなわち帰納論理(indective logic)として考えられる』という。帰納論理というのがよくわからないが、演繹論理ならわかるだろう。「A→BでAならば、Bだ」というように、ベイズ推論も論理的な規則を与えている。ただ異なるのは、0か1か、というような話ではなく、0から1まで、という話になっていることだけだ。

以上まとめると次のようになる。演繹推論における妥当性とは、前提の真理値割り当てに対し整合的な形で結論の真偽を導き出すことであり、これは健全な論理規則に従って推論することで担保される。一方、帰納推論における妥当性とは、前提の信念の度合い(すなわち事前確率と尤度)に対し整合的な形で結論の信念の度合い(事後確率)を調整することであり、これはベイズ定理に代表される確率規則に従って計算することで担保される。このような意味で、ベイズ定理を始めとした確率計算は帰納推論についての論理を与えるのである。

統計学を哲学する

  しかし演繹論理が「すべての人間は死ぬ」「あいつは人間」「だからあいつは死ぬ」というとき、なんの情報も増えていないことに注意してほしい。帰納論理は、それとは違って、未観測の事柄を推論することに特徴がある。なぜこんなことができるのか? 私たちはもはや哲学的認識論の領域に足を踏み入れている。

 

 

哲学的認識論epistemologyの主要な問いは「知識とは何か」であり、これはプラトン以来、正当化された真なる信念だと受け入れられてきた。真なる信念であるだけでは駄目なのは、偶然そうなったというときに、たとえばこのクジが当たりだと知っていたとはいえないからである。つまりまぐれ当たりされないように正当化という概念を持って来たのである。

 特に科学的知識とはなにかという問題になると難しいが、「正当化」ということが重要である。統計学はこの正当化のプロセスを引き受けている。だが一体どのような意味で正当化できているのだろう。正当化するとはどのようなことなのか。ここには内在主義=信念はすでに正当化された信念からの妥当な推論により導かれることによってのみ正当化される、外在主義=何らかの客観的プロセスによりその正しさが担保されるという代表的な立場があるが、内在主義的認識論がベイズ主義を特徴づけることを説明しよう。ただし、ベイズ主義を選べば常に内在主義を採らなければならないわけではない。

ベイズ主義は内在主義は類似した正当化概念を有し、また同様の困難を抱えているということを示すこと、そしてそれによってベイズ統計の認識論的な側面を浮かび上がらせることが主眼である。

統計学を哲学する

 内在主義は、当該信念を有している当人がその理由ないし証拠をしっかり把握しているとき正当化された知識とみなす。内在主義者は正当化を主体の有する信念間の関係性として理解する。つまりそれを根拠づける別の信念を主体が有している。この根拠づけのためにはもちろん推論が働いていなければならないが、これもまたもちろん、いつも演繹的に導出されるわけではない。必然的ではなく、蓋然的な推論もありうるのである。そしてベイズの定理をその推論規則として考えるのは極めて自然なことである。ここで思い起こすのは、ベイズ主義は主に主観主義つまり確率を信念の度合いとして見ていたことである。

 さて、このように定義された「正当化」はあくまで定義に過ぎない。問題はこの定義がうまく働くかどうかである。つまり、まぐれあたりを防ぐかどうかである。哲学者は謙虚に正当化と確実性を区別するが、それにしても正当化されるからには何らかの意味において真理へと我々を導いている真理促進的truth-conductiveな役割が求められている。だからここで問題になるのは、ここで得られる推論関係が所詮「信念」の問題であり、世界とは関係なさそうに見えるところである。たとえばいくら前提が意味不明なトンチンカンなものでも、推論自体が正当だとされてしまう場合がある(月はブルーチーズでできている、ゆえに……)。その前提の正しさを得るためにはまた正当化が必要であり、そのまた正当化が、と以下同様にくり返し、無限に正当化を繰り返すことになる。よって内在主義者が真理促進性を示すにはこの遡行問題を解決しなければならない。そしてやはり、ベイズ主義にも同様の困難が生じる。

 カール・ポパーもやはりこの点を問題にして、世界の客観的構造を探求する科学にはそぐわないと断じた。ベイズ主義はこれに対して、何度も何度も正当化プロセスを繰り返すことで応じた。おかしなものが混じっていても、最終的には事後分布が真なるものに近づいていくとしたのである。つまり、大数の法則というIDD条件が与えた究極の保証を根拠としたものであるが、前にも指摘したように現実的な選択肢ではない。そこで別の応答として、推論の前提であるところの事前分布などを何らかの仕方で正当化するためにいろいろの””まっとう””だと思われる原理に訴えかけるというものがある。とにかく前提をなんとか今あるデータに即してどの程度妥当であるかを測ろうとしているのであるが、もはやどのような意味において正当化になっているのかが明らかではない。

 これは内在主義の本質的な困難でもある。彼らは正当化のプロセスを主体にとって参照可能な内的リソースにのみ基づけようとする。この戦略は内的と外的をいかに結び付けるかという問題に直面する。彼らは事前分布やデータを「所与」のものとして扱い、正当化を拒むことによってしか、この正当化を完結させることはできない。だがそれを拒めば、実際の世界のあり方を正しく捉えられているかという問題にはまったく答えられないことになる。

第三章 古典統計(①)

 ベイズ統計も古典統計も観測されたデータをもとにその背後にある確率モデルについて知ろうとする点においては同じだが、(1)主観主義vs頻度主義という確率についての意味論がまず異なり、(2)帰納推論についての考え方、もまた異なる。ベイズ統計においては、帰納推論とはデータに基づき確率モデルについての信念を調整していくことだったが、古典統計においてはまず仮説を立て、棄却または保持し、徐々に確率モデルに肉薄していくことなのである。

 まず頻度主義について見てみよう。たとえばコインの表が出る確率は1/2だと誰でも知っているが、頻度主義は、一定の試行を行った際にその事象が生じる回数を試行全体の回数で割ったものだと考える。とはいえ、コインを100回振れば、50回表が出るとは限らないのは当たり前の話である。だから頻度主義は確率を有限系列から無限に引き延ばす。確率とはその収束値なのである。実際、コイン投げの表の相対頻度は試行回数が増えるに従って1/2へと近づいていく。だから、確率は1/2なのである。

 というわけで、極限を用いて確率を定義することが出来る。ベイズ主義においては公理さえ満たしていればなんでも良かったのとは対照的である。もちろん、頻度主義における確率も、確率の公理を満たす。頻度主義の利点は確率を客観的に定めてしまえることにある。とはいえ、当然のように無限回の試行などできるわけもなく、あくまで仮定的なものに留まらざるを得ない。もちろん数学的には極限の値はそうなるとしても、いつそのコインの化けの皮が剝がれるかは、絶対保証できないからである。つまり、1000回目まではいい感じに進んでいたとしても、1001回目からは裏しか出なくなるかもしれない。するとその収束値は0である。これに対処するため、確率を定義する集まりのランダム性条件を仮定する必要があるが、なにがランダムなのかというのは恐ろしく厄介な話なので、これ以上の分析は確率の哲学理論 (ポスト・ケインジアン叢書)に譲ることにしよう。

 さて、頻度主義は確率をはっきりと定義することができたが、もちろん欠陥もある。何回もくり返し起こらないようなことに対しては、定義できない。一方、主観主義においてはそうではなかったことを思い起こそう。「恐竜が絶滅したのが〇年前だ」という命題にも確率を付与することが出来た。「明日は晴れだ」これにもできる。だが、頻度主義にはこれが出来ない。宇宙の歴史が無限回繰り返される結果を考えなければならないが、そんな想定は客観的意味をなさない。これに関連して、たとえば「このコインを投げて表が出る確率は1/2!」とはいえるが、「今投げるけど、表が出る確率は1/2だ」とはいえない。なぜなら今投げるのは一回限りのことだからだ。そしてまた、科学的仮説についても確率を考えることなど不可能である。ベイズ統計であれば実験をして修正をして、実験をして、とアップデートすることが可能だったが、古典統計は正しいか正しくないかであり、アップデートなどあり得ない。

 そこで現れるのが仮説検定である。これはポパー反証主義falsificationismに近いところがある。「まず仮説がある。データと突き合わせる。駄目なら捨てて新しいものを、良ければ””一応は””大丈夫」だ。このサバイバルゲームを繰り返すことの意味は、科学を、真理に近づいていくものというよりむしろ、間違いを斥けていくプロセスとして描き出すことにある。これは、仮説をもとにして見たデータが正しく合致しているからといって仮説が正しいとは限らないが、データが合わなければ仮説はまちがいだというのは論理的に正しい、ということを利用したゲームだ。

 しかし実際の科学的仮説がここまで強力な予測をすることはほとんどない。たとえば『喫煙は肺がんの原因である』という仮説は、ヘビースモーカーのくせに肺がんにならない人間を見つけてしまったが最後、間違いとして棄却されるわけではない。われわれが併せて考えるべきなのは、その仮説がもし間違いだった場合にそのデータが得られる確率である。検定はこの二つの仮説を同時に検証することで、棄却すべきか否かを判定する。手続きとしては棄却域critical region、つまりどれぐらいの確率であれば仮説を切るかの取り決めをしておかなければならない。とはいえ、この取り決めはこっちが勝手に決めるのだから、間違う可能性がある。棄却してはいけないものを棄却することを第一種の誤りと呼び、棄却し損なうことを第二種の誤りと呼ぶ。この誤りのどちらからも完全に逃れることはできない。ふたつはトレードオフの関係にある、即ち、一方を避けようとすれば一方の危険が高まるのだ。

 

 

第三章 古典統計(②)

 仮説検定という検査装置はその仮説自体については何も言わない。棄却するかしないかを、設定した許容範囲で判定をしてくれるが、しかし仮説自体については正しいとも正しくないともいわないのである。こうした事情から検定理論の生みの親であるネイマンは、統計学帰納推論というより帰納行動の理論だと言った。帰納推論はデータから真偽を判定するが、そうではなく、不確実な状況下で私たちの行動をガイドするひとつの指針として統計学を見たのである。私たちは明日も明後日も水を火にかければ湯が沸くと思っている。それはひとつの習慣であり、この習慣がふだん私たちのガイドを行なっている。検定理論はさまざまな案内人の信頼性を見積もるという意味で、「案内人の案内人」の役目を果たすというのである。

 統計学帰納行動の理論とするこの見方が私たちを満足させるものであるかどうかは、私たちがそれに何を期待しているかによる。検定理論が生み出された当時は大量生産品の品質管理が主な目的であり、質の悪いものを出荷するリスクを限りなく小さくすることが肝心なことだった。しかし、たとえば新薬開発において期待されていることは、どれぐらい信頼できる薬を生み出すかではなく、薬が効くか効かないかである。しかし帰納行動の理論は、個別的な仮説の成否については何も言うことができない。帰納行動の理論としての統計学が関わるのはその検定手段の長期的信頼性なのだが、ではズバリその薬は、その製品は、に関する判断は正当化してくれないのだろうか。

 ベイズ主義は主観主義と密接なかかわりがあり、その正当化にあたっては内在主義的な見方が採用されたのだった。しかし正当化の概念に対する考え方は外在的なものもある。この対案はゲティア問題Gettier problemという反例によって生じて来たものである。このゲティア問題においては、「一見正当化されているようにみえる真なる信念」でありながら「直観的には知識とはみなされない」ような例を取り扱っている。

部屋には時計がないのでいつも窓から見える時計台を確認している。正午には席を立って食事に行くことにしており、いつも通り席を立った。そして実際その時は正午であり、食堂にはたくさんの人がいた。ところが部屋に帰ると、時計台はまだ正午である。実はメンテナンスで針が止まっていたのである! ———あなたは「今は正午だ」と知っていたのだろうか?

 内在主義的観点から見れば、明らかに「正午だ」は正当化されている。しかも実際、その時は正午だったのである。だが私たちは、彼が正午だと知っていたと満足に言えるだろうか? 知識というより、偶然の一致ではないか? つまり内在主義の正当化の考え方では「まぐれあたり」を完全には予防できていないのである。

 これをいかに修正するか。無論、正午だという信念の得られ方を問題にするのが自然だろう。止まった時計を見て正午だと思ってしまったのだから。止まった時計は信頼できる情報源ではない。ここにおいて、正当化に関する信頼性主義という見方が起きる。つまり、『ある信念が正当化されるか否かは、それがどのようなプロセスによって形成されたのかによって決まる。信念形成プロセスが信頼のおけるものかどうかが大事である。たとえば、あなたの友人がコーヒーを一日三杯以上飲むと脳卒中のリスクが下がると信じていたとする。「どこで知ったの?」と尋ねると「権威ある学術誌に掲載された大規模メタアナリシスの結果だ」と言い返して来たら「ホンマでっかTVで見た」よりよほど信用できる。つまりテレビより学術誌のほうが正しい情報を伝えてくれる割合が高い、という意味である。同様に、停止した時計が正しい時刻を伝えてくれる可能性は大変低い。

 信頼性主義は正当性を主体の外側に要請する点で外在主義的である。正しい情報を伝えてくれる割合が高いというのは主観的な信念ではなく、客観的な事実として捉えなければならないことに注意しよう。

 

 だがそうしたときに問題なのはそのプロセスが信頼できるとは具体的にどういうことなのかということである。SさんがPを信じていたとしよう。ロバート・ノージック曰く、これが知識と呼ばれるためには、Pであるという事実をしっかり「追跡track」していることである。:

  1.  Pが真じゃなかったら、SさんはPと信じなかった
  2.  Pが真だったら、SさんはPと信じた

 言い換えれば、SさんはPかどうかに応じて信念を形成しているということである。この見方はゲティア問題を回避できる。なぜなら止まっている時計台によって時間を判断していた誰かは、実際に正午でなかったとしても、正午だと信じ続けるだろうからだ。これで(1)の条件に引っ掛かり、知識とは認められなくなる。ノージックの追跡理論は信頼性主義とは別の文脈で提起されたものであるが、これら条件を信頼できるプロセスの条件として読み替えることは可能である。

 たとえば青空を見ているとしよう。私は「空が青い」ことを知っている。視覚というプロセスを通じて青いという判断を下した。もし空が暗ければ、私は青いとは思わなかっただろう。では何か音が鳴って「ドだな」と思ったとしよう。しかし実際はファだった。しかし私は相変わらずドだと信じ続けざるをえない。つまり私の音感は信頼できない。

 以上から何が言いたいかというと、検定というものは、一種の信念形成プロセスだということである。検定は二つに分かれていたことを思い出そう。主たる仮説の対立仮説が偽であるときそれをどれぐらいの確率で見抜けるかを決めて検定を行った。つまり対立仮説が真でなかったら、検定はそれを受け入れない。そして逆に真だったとしたら、検定はそれを受け入れただろう。具体的にいえば「サイズ」と「検出力」という検定理論的な概念はノージックの二つの条件を満たすかを示す指標になっている。検定理論は具体的な道具立てを与えてくれているのだ。

 しかしながら、問題はある。「Pが真じゃなかったら」というが、一体そんなものの真偽をどうやって確かめればいいのかということだ。この標準的な方法は、Pが真でないような世界を考えるという可能世界意味論possible world semanticsに訴えることだ。とはいえ、このことは正当化が現実世界だけからは決まらないことを意味する。即ち、あなたが何かを信じることの正当性は、その何かが成り立っていない世界においてあなたが何を信じているかという状況に依存する。では「私は鳥ではない」はどうなのか。自分が鳥だったときの世界などどうやってアクセスしろというのか。頻度主義においてはこの可能世界という考え方はどうしても必要になって来る(というのも、ある仮説を考える以上、その仮説が成り立たない世界も同時に考えるから)。頻度主義は可能世界のあり方を考える統計学なのだ。

 信頼性主義的な正当化は真理促進的である。つまり、信頼性主義においてはある信念が正当化されるというのはそれが外的な事実と一致するように信念を形成するプロセスによって生み出されたということだからだ。じゃあ検定の結果は鵜呑みにしていいかというとそんなことはない。検定がずさんであっては何の意味もない。ではずさんじゃないかどうかはどうやって保証するのか。それには仮説の対象に対して正しい統計モデルが立てられているという前提が必要である。単に検定の「結果」を見ているだけでは駄目で、「プロセス」にまでキッチリ目を向けないといけない。しかしこれが殊の外、大変なのである。

 たとえば「今日は空が青いなあ」と言う。視覚プロセスは信頼できる! ただし、青いフィルムが貼られていなければの話だが。検定理論においてはそうした外的条件をIID条件はもちろん、さまざまな仮定によって定式化する。だがその仮定が実際どうであるのかは完全に統計理論の範疇を超えている。信頼性を保証する条件は私たちから隠されており、成否を問い続けなければならない。頻度主義のこのあまりの「広さ」が、ベイズ主義から批判を受けるポイントでもある。たとえば停止規則問題stopping rule problemはその有名な例である。全く同じデータをもとにしながら、実験デザインの違いにより正反対の結果が出る。さらに一般性問題generality problemもある。停止規則問題が重箱の隅をつつくように思われたので、ベイズ主義者が繰り出してきた難問である。即ち、一言で「プロセス」といっても、それをどう描き出すかは人によるということだ。

 あなたがとある薬品について考えているとしよう。「この薬は味がしない!」これは単なる味覚プロセスによってしか与えられないだろうか。そんなことはない。「味覚障害を持たないヒトの味覚プロセス」といってもよいし、「味覚障害を持たないヒトが刺激物(昼食の激辛カレー)を食べた後での味覚プロセス」かもしれないし「多細胞生物が刺激受容細胞を通して異物を認識するプロセス」かもしれない。そこで問題は、どのプロセスを基準とするかだ。ふたつの検定プロセスのどっちを正しいとしますか、というのが停止規則問題だったともいえよう。これに対する応答は、まず開き直りがある。正当化概念というのは検定プロセスとセットでね、という。つまり絶対的で一意的な正当化などない。

 

 私たちは誰でも気軽に統計的正当化を行うことができるが、それが認識論的背景に即した意味での正当化になっているかが問題であり、まずその問題について自覚的にならなければならない。

 

現代認識論入門: ゲティア問題から徳認識論まで

現代認識論入門: ゲティア問題から徳認識論まで

 

第四章 モデル選択と深層学習(①)

 私たちはこれまで、まるで事象の背後にある斉一性=確率モデルが真実と近ければそれが一番よいのだという風に話をしてきた。だが、「予測」に絞って考えれば、実は真実から遠い確率モデルのほうが的確なのである。一定のデータが与えられた時、それに合わせて背後の確率モデルのパラメータを調整するのだが(モデル適合ないし学習と呼ぶ)、この典型的なやり方が最小二乗法least squares methodであった。どのような手法を用いるにせよ、それらはデータをモデルに適合させることだけだって、モデル自体が正しいかどうかには言及していないことに注意しなければならない。

 モデル選択model selectionは極めて重要だが、一体いかにして行うのか。代表的なのは赤池弘次の情報量基準AICである。詳しいことは省くが、ともかくこれに従うと、選択される良いモデルというものは「真実の姿よりゆがめたもの」である。これは一見パラドクシカルに映るかもしれないが、たとえばニュートン力学が理想的な状況を想定して考察していたことを思い出せばそう不審なものではない。逆に言えば、いくつかの個別性を無視しなければ、何もわからない。物理学において「牛はボールだと思え」である(物理学者はマルがお好き (ハヤカワ文庫・NF))。

 そしてこのことは、統計学存在論を見直すきっかけを与える。私たちひとりひとりの人間は原子の集まりとして記述することもできる。だがなぜそうしないのか。それは世界の描写としては正確かもしれないが、説明や予測を行うのには言葉が過ぎるからだ。家に住み着いたツバメが秋には出て行くだろうという予測を、原子レベルの記述がどうして可能とするだろう。ダニエル・デネットは抜き出される類型をリアル・パターンと呼んだ。ツバメという自然種は特定の文脈において予測に寄与するリアル・パターンである。だから確率種にしても厳密から荒っぽいのまで階層性がある。「関数がどんな形をしているか予測するんでしょ。線形的って、そんなわかりやすい形してるわけないよね」と言いたくなっても、そのとき私たちのいう「厳密な形」が説明に役立つとは限らない。AICはデータからリアル・パターンを予測するのだ。

 ここには二つの「リアル」がある。ホントウに近いリアルと、予測に役立つリアル。

 この二つを区別することは重要である。AIC統計学における実在の意義を後者に捉え直そうとする。私たちが統計学をはじめたとき、背後に控える確率モデルを想定しなければならなかったが、それは帰納的推論に必要だという目的のためであって、そもそも統計学というのは最初から道具主義的な側面がある。だとすればAICがもたらした方針転換は首尾一貫しているといえよう。統計学をこのように捉え直すと、科学もその姿を変える。科学は世界がどのようであるかよりも、どのようになるかを探るものになる。ベーコンが述べたように「知は力なり」だ。これはプラグマティズムpragmatismに通ずるもので、ウィルアム・ジェイムズは、真理とは役立つ観念にほからないと言った。ここで大事なことは「役立つ」というのは文脈によって変わることであり、AICはいくらデータが増えようが(無限でも)、「コレ!」というものが選び出されるわけではない。人間にとってカレーの匂いを捉えるのはまともなパターンだが、イヌにとってはカレーでは粗すぎるかもしれない。プラグマティズム実在論は、認識者が異なれば、異なったリアル・パターンを浮き出させる。

 

思考の技法 -直観ポンプと77の思考術-
 
自由の余地

自由の余地

第四章 モデル選択と深層学習(②)

 予測に特化したアプローチとして、深層学習deep learningを取り上げよう。深層学習の標準的なモデルは多層ニューラルネットワークdeep neural networkである。ニューラルネットの一つ一つの点が確率変数を表しており、これを積み上げる。最初のものが次に影響を与え、次に、次に、次に、で最後に至る。第一ステップのN個の確率変数のすべては、次の第二ステップの一つの確率変数に影響する。この変化の関数を活性化関数と呼ぶ。総パラメータ数はふつう、何千万次元にもおよび、実際に書き下すことは到底かなわない。

 さて、これを具体的に決定していくわけだが、そのアプローチは基本的に今までの道のりとさほど変わらない。誤差関数を用意して、どれぐらいハズれているかをデータから想定していく。とはいえ、今回のケースだとちょっと実験するだけでとんでもない数のデータを処理しなければならないため、誤差逆伝播法backpropagation methodという手法を用いる。とはいえ、理屈ではこの方法でうまくいくのだが、実際やろうとすると値がゼロになったり無限大になったりして具合が悪くなるのがほとんどである。これを勾配消失問題vanishing gradient problemと呼ぶ。しかもこれがうまくいったとしても、誤差関数の形が複雑だと結局求められずに終わる。これをなんとかするために色んな手が講じられているところで、その色んな手を組み合わせることによってなんとか前に押し進めている。

 深層学習の成功とそれによる人工知能ブームはパラダイム・シフトをもたらしている。それはAICで見たように、真理のプラグマティックな転換である。しかしプラグマティストが主張するように、真理が内在的な「役に立つ」という価値しかもたないなら、私たちがものを認識するプロセスは真理を生み出す装置ではなく『こうすりゃ役に立つという道具、技術、習慣に似たもの』となるだろう。

 真理への探究を続けるとしても、私たちは、AIが大量に処理し、弾き出した答えを「知識」としてカウントしてよいのかという認識論的問題に立たされる。アインシュタイン相対性理論を見つけたのと同じように、AIがコレコレの法則を見つけ出したと言ってよいだろうか。言い換えれば、深層モデルによってもたらされる発見は認識論的に正当化されているのか?

 そこで信頼性主義を再び持ち出すのが自然だろう。AIの弾き出しを認識プロセスを、信頼性主義における正当化プロセスのうちに組み込むことは何ら問題ないように思われる。ところが話はこれで終わりではない。古典統計の推論を正当化したときは、それがどの程度の信頼できるのかを数学的な具体的指標(サイズ、検出力)として導き出す理論的手だてがあったのに対して、深層学習においてはそれがいまだにない。モデルの信頼性はむしろ「Googleが作ったんだから」といったような、モデル自体がもつ性質として、属モデル的な仕方で理解されてしまう。

 これを考えるにあたって参照したいのが徳認識論virtue epistemologyである。これは、正当化の根拠を、認識する主体自身が持つ性質や性格に求めるもので、徳倫理学に由来する考え方である。ある信念が正当化されるのは、その信念が認識者の認識的徳の現われであるときだというのだが、なにが認識的徳なのかは意見が分かれるところであるが、なんてことはない、認識的徳というのは認識に関わる限りで人が有する能力や長所の総称に過ぎない。私たちがド素人よりも学者の意見を信頼するのはそのような能力をもっていると考えるからで、このとき私たちたちの裏で働いているのは徳認識論的正当化概念であろう。友人が「先生が言ってたぜ」と言えば、なんの力も持たない私が言うよりも余程知っていると呼べるのだ。

 認識的徳を真理促進的な傾向性、つまりより真理へと導く性質へと言い換える者もいる。聡明で注意深い人は正しい信念を得やすい傾向にあるからだ。だから、適切に学習された深層モデルは認識的徳を有するため、たしかに正当化に成功しているわけだ。そして無論、「適切な仕方で」の部分が問題になるが、この点については、現代認識論入門: ゲティア問題から徳認識論までに詳しい。

 次の課題は認識的徳の解明、つまりなぜその構造だとうまくいくのだろうということだ。深層モデルがデータから何をどのように学習しているのがその機序を理解しなければ、AIを積んだ看板に反応して止まる全自動の車が、看板にちょっと落書きをされるだけで激突することになりかねない。

 私たちは深層モデルを解剖することでこの機序を明らかにすることもできるが、また違った視点もある。ソウザは知識というものを動物的のものと反省的のものとに分けた。奢ってもらったビールの銘柄がナントカであることを私はなんとなく察したとしても、私たちは「なぜ」わかったのかを理解していない。反省的知識はそれについての理解を与えるもので、これを持っていれば「より深い知識を持っている」と言ってもいいだろう。だからAIにこう訊いてみるのだ。「なぜわかった?」と。正当化可能な根拠を示すことができるAIを説明可能な人工知能と呼び、これを目指す試みもある。

 

 ところで私たちはヒトならヒト、イヌならイヌで異なったリアル・パターンの内に生きている。これは深層モデルだって同じようなものである。画像を与えられたシンソウモデルはそれがリンゴであることを私たちと同じように色合いや形から判定しているとは限らない。このことをバッと押し広げてみてみれば、深層モデルが世界のうちに発見してくるパターンが、私たちのリアルと一致する保証はまったくないということでもある。その深層モデル独自の自然種を私たちが反省することはできるのだろうか? というかそもそも、この深層モデルは私たちとは違う自然種を用いているだなんてどうやってわかるのか。

 これはクワインが提示した翻訳の不確定性indeterminacy of translationに通じる。二つの言語間の正しい翻訳なるものはただ一つではなく、複数の可能な翻訳ルールが存在するというものである。未知の部族がウサギを見て「ガヴァガイ!」というからといってそれが「ウサギ」という意味とは限らない。「ご先祖様が来てくれたぞ」と言っているのかもしれない。

 クワインが言いたいことはそもそも私たちがあぶり出そうとしている「真の意味内容」などないのではないか、ということだ。私たちはある種のストーリーを深層モデルの内に見出すかもしれないが、結局解釈の一つに過ぎない。だからもうAIがうまくやっているならそれでいいだろうという気分にもなってくる。とはいえ、あるモデルをよそへ売り出すときに「さあ説明せよ」と言われたら、よその人間に向けてどう説明しろと言うのか。成功事例を見せればいい、というのは所詮内部の人間の感覚である。私たちはこれまでの章で見て来たようなベイズ統計や古典統計などのお話を語るかもしれない。しかしそれは最終的には、形而上学的なお話にほかならず、成功しているとはいいがたいのだった。とはいえ、それは役に立つお話であり、その答えが客観性を欠くものであったとしても容易に切りすぎてることはできない、アカウンタビリティを果たす一つの方法を提供する。

 

 

 

統計学入門 (基礎統計学Ⅰ)

統計学入門 (基礎統計学Ⅰ)

  • 発売日: 1991/07/09
  • メディア: 単行本
 

第五章 因果推論(①)

 帰納の問題と因果の問題を同一視したのはヒュームだった。つまり、帰納問題の正当化と、原因から結果への推論の正当化は同じ問題の表裏に過ぎなかった。

 しかしそもそも因果とはなんなのか。ヒューム自身は規則説regurality theoryに立つ。つまり、(1)原因と結果は時空間的に隣接している。(2)原因は結果に時間的に先立っている、(3)原因と結果は恒常的に連接している、の三条件に因果を求める。観察できるのは前の事象、後の事象の一連の生起であり、因果にはこれ以上の条件は必要ない。因果関係は一種の規則性であり、この規則性は確率変数の間の相関によって表される。因果関係はその域を決して出ることはない。

 因果関係を確率的関係と読み替えるという仕事は、当然、その関係の中に既に因果が含まれていてはならない。ところが因果関係そのものを定義するうえで、私たちは既になんらかの因果的知識を持っていることが要請される。たとえば、因果関係と相関関係を本当に一緒くたにすることはできない。あなたが気圧計を見て低い数値を見ることと頭痛に悩まされることは相関しているが、しかしこれは気圧が実際に低いという原因によって引き起こされた偽の相関に過ぎない。そこで因果を定義するにあたっては、二つの共通の原因・交絡要因confounding factorで条件づけておかなければならない。気圧が低いのが真の原因であって、気圧計の目盛りを見るから頭が痛くなっているわけではないのだから、ふつうに考えて、高い日にも気圧計を見てみれば問題は解決するだろう。だから、交絡要因になりそうな要素を考えておいてそれも込みで理論を組み立てていくわけだが、まさにここに、因果的知識をあらかじめ持っていなければならないという部分があらわれている。

 因果は確率とは異なる。では何か。

 私たちは「隕石がぶつかってきて、恐竜が絶滅した」とかいう。ここで意味されていることは、必ずしも規則的連関ではない。なにしろ、恐竜の絶滅は一回きりしか起こっていないのだから、規則がどうとかいう話ではない。むしろ私たちが言いたいのは、「隕石さえなきゃあ絶滅しなかったんだがなあ」ということではないか。そこで出てくるのがデヴィッド・ルイスの反事実条件説counterfactual theory of causationである。彼によると、EがCに因果的に依存するとは、

  1.  もしCであったとしたらEであっただろう
  2.  もしCでなかったとしたらEでなかっただろう

 ということがともに成立するということだ。

 すぐにノージックの知識論に似ていることに気づくが、これもやはり同様に、可能世界意味論によって定められる。一番についてそれが現実世界において真となるのは、どの可能世界においてもCではない、あるいは、CとEがともに成立している可能世界があり(適例世界)、それはCであるがEでないような可能世界(反例世界)のどれよりも現実世界に近い、ということを意味する。前者については論理学上の但し書きなので気にしなくていいが、後者においてはちょっと趣が異なる。ややこしい。

 甘いものは虫歯の原因である。一番の条件を考えよう。これが成立するためには甘党でしかも虫歯になっている適例世界があるとしよう。そのとき、甘党でも虫歯になっていない反例世界のうちで好きなものをとってきたときに、適例世界が常に現実世界と近ければよい。というわけで、たとえば反例世界のうちでは、みんな大変真面目に歯磨きをしている世界もあるだろう。だとするとその反例世界は現実とはたいへん勝手が違っており、適例世界に負ける。二番目の条件も同じようにする。

 しかし問題なのは、やはり可能世界がどうなっているのかなんて私たちにはわからないということだ。反事実条件説は意味論はうまく与えていたとしても、どうやってそれを知るのかという認識論には無頓着である。これを補うのが検定理論であるが、しかしそれすらも十全ではない。なぜなら検定理論が行うことは、背景にそのような因果が成立するとして、その仮説が成り立つかどうかを棄却したり保持したりするものだからだ。だが私たちが知りたいのは、「まさにその因果関係が存在するか」ということなのだ。

 

 

 

現代哲学のキーコンセプト 因果性

現代哲学のキーコンセプト 因果性

 

第五章 因果推論(②)

 因果推論の根本問題は、私たちがこの世界に生きており、他の世界ではないということである。なんとか歩みを進めるために、何ができるだろうか。それがフィッシャーの無作為比較試験Randomized Control Trial;RCTである。これはたとえば「甘党だと確認された人が虫歯になる」のと「仮に甘党だった場合に虫歯になる」のと、ふたつの確率を実験的に等しくさせる。これはふつうは一致しない。甘党のひとは単に甘いものを食べるだけでなく、それ以外にもたくさん、虫歯要因を抱えているだろう。だからランダムに選ばれた人が甘党だったときを仮定した世界で虫歯になる確率よりも、ふつうは高くなる(単に甘党だと仮定された人は、甘いものを食べる以外になにもしない)。

 RCTはこれを等しくするため、「甘いものを食べる」という処置をコインで決める。そして処置群と非処置群の虫歯発生確率を比較して、その差が有意に大きければ処置には因果的な効果があったと考えるのである。その根拠は、無作為化によって処置が、〈甘党じゃないときに虫歯になる〉〈甘党のときに虫歯になる〉という二つの結果と独立になるということによる。前者をY1,Y2とすれば、ルイスの二条件が満たされることはY1が成立、Y0が不成立であることを意味し、つまり、Y1=1、Y2=0、すなわち、Y1-Y2=1が成立することである。つまりどのぐらい因果関係が認められたかどうかは、Y1-Y2の期待値が1に近いかどうかで見極められる。:

 E(Y1-Y0)=E(Y1)-E(Y0)

 が成立するから、それぞれの期待値を計算すればよいのだが、何度も言っているように、私たちはこの世界にしか生きてはおらず、観測することはできない。だが「仮に甘党だった場合に虫歯になる」期待値と、「仮に甘党でなかった場合に虫歯にならない」期待値は求めることはできる。上で独立性を実験的に確保したのは、E(Y1)=E(Y1│甘党)とE(Y2)=E(Y2│甘党じゃない)という等式を成立させるためだったのである。

 

 ややこしいがともかく、RCTは科学的知見を得るための、因果推論の王道である。ところがRCTには倫理的な問題が生じる場合もある。たとえば喫煙リスクを知るために、募集した人にランダムで「タバコ吸え」と強要するわけにはいかない。というわけで今度は喫煙習慣と病歴などのデータに基づいて、可能世界を覗き見する方法を画策する。形而上学的な観点からいえば可能世界ののぞき見は不可能だが、一定の想定のもとでそれを推論することは十分できる。たとえば実験したいある一点以外はまったく同じのそっくりさんを引き連れて来れば、問題は解決する。

 しかし、そっくりさんを見つけてくるなんて無理だし、そもそもそれをどう評価するのかが今度は問題になって来る。というわけで考え出されたのが、強く無視できる割り当て条件strongly ifnoravle treatment assignmentである。これがそっくりさんを決める。

 以上のような検定とは異なるアイディアをルービンの反実仮想モデルといい、広く用いられている。しかし未知の交絡要因がいくらでも存在し得る点などを鑑みても、このモデルを使えば安心安全というわけでは全くない。

 

つまりまとめると反実仮想モデルは、因果命題とは可能世界のあり方についての主張であるというルイス流の意味論を受け入れた上で、現実に得られたデータからその主張の成否を推論するための認識論を与える。

 

  因果についてのふつうの考え方をすれば、それは「反事実的関係」といったものよりも、むしろ「向きを持った影響関係」だろう。XはYの原因であるといったときに、X→Yと言う風にかけば、複数の変数の間の因果構造は有向グラフによって表される(因果グラフ)。数学的にはグラフというのは一周して戻って来ることもありうるので、簡単のためにサイクルを除外した非巡回有向グラフDirected Acyclic Graph;DAGのみを考慮しよう。

 グラフによって変数同士の因果が目に見えて表示されるようになる。そしてさらにここには、因果的マルコフ条件causal Markov conditionが仮定される。これは「グラフにおいて因果的に切断されているものは、確率的にも独立になっている」ということを表す条件である。グラフの各変数から別の変数に移り変わりを関数で表したものを構造方程式structual ewuationと呼ぶが、それぞれの移り変わりの誤差が独立な確率分布に従うと仮定したときに、それら確率分布をすべてまとめて考えてみるとやっぱりマルコフ条件を満たすので、結論からいえば、「因果構造がグラフと構造方程式で表される」と思うなら、マルコフ条件を満たすと考えることは当然なのである。

 このアプローチは「グラフ」から攻めるもので、反事実条件から攻めようとする反実仮想モデルとは違い、構造的因果モデルと呼ばれる。これによって因果関係というものに「介入」という当たり前の考え方をもたらす。つまり、甘党のやつが虫歯になるなら、チョコを控えるようにいえば虫歯になる確率を変えられるはずだ、というふつうの発想である。すなわち、XがYの原因であるというのは、Xをいじくって他の分布に変えてしまうことによってYの分布も一緒に変えられるということも意味するはずだ。とはいえ、これは反事実条件における「因果」解釈と衝突するものではなく、むしろそのもう一つの側面をあぶり出したといえる。そしてやはりグラフによって視覚的に見やすくなるのもありがたい。

 さて、それはいいが、じゃあどうやって「因果グラフ」など見つけ出すのかといわれると問題になる。これに取り込むのが因果探索causal discoverであり、複数のアルゴリズムが提唱されている。因果探索の根底にあるアイディアは「確率分布というのはもととなる因果構造から生み出される!」というものである。だから確率分布があればその痕跡が残るはずであり、それをデータからなんとか絞り出そうとするのだ。

 

 とはいえ、いずれにせよ、帰納推論では何らかの仮定を置かない限り何も結論することはできない。そもそもIID条件や統計モデルを仮定して確率分布を推定するわけだし、強く無視できる割り当て条件がなければ期待値も計算できないし、なんらかの前提がなければ因果グラフも作れない。そしてこれらの仮定はその内部では絶対に正当化されない。

 

 私たちの道行きは因果的説明と予測には本質的に異なるところがないとして扱うところからはじまり、それを定量化してきたが、徐々にわかってきたことは因果関係というのは単純に確率という概念で完璧に説明しきれるようなものではないということである。因果を確率に還元するアプローチはもはや維持できず、確率モデルを超えた道具立てを必要としている。それが可能世界や因果グラフだったわけだ。

 これによって「データ」「確率モデル」「因果モデル」の三元論でぶつかることになった。伝統的には「データから確率モデルを見つければよい」というのが因果のすべてだったのだが、今となっては「介入を行うとどんな世界が実現するのか」になった。そのマッピングの法則性が問題となっている。これらの三つの要素はすべて異なる世界に属するものであり、たとえばデータから確率モデルを直接計算することなどできないし、いくら確率モデルを用意したところで因果モデルは推測するしかできない。

 

 データ → 確率モデル → 因果モデル の→(推測)の流れ

 

 数学的表現は、この存在論的区別を忘れさせる。私たちは正当性について考えるにあたって、対象を「確率種」としてみなすか「因果種」としてみなすかを試されている。つまり、主張の成否は、それが存在論的にどちらに帰属しているかによって決まる。

 

以上をまとめると、次のようになる。数理統計学の手法を使うことで対象について何を主張できるかは、我々が対象をどのようなモノとみなしているのかという、我々の存在論に依存する。統計学は、そうした存在に関する想定を、確率分布や潜在結果、因果グラフなどの道具立てによって形式的に表現し、またそうした想定が満たされているかをデータに基づいて判断するための認識論的手段を与える。一方、対象がそもそもどのレベルの存在としてみなされるべきかについては、定まった答えはなく、むしろ与えられた関心や課題によってその都度意思決定されるべき事柄だろう。もしわれわれの関心が予測のみにあるのであれば、確率種の想定で十分であり、一方介入結果の予測や制御が問題になるのであれば、因果的想定が必要になってくる。つまり我々は問題に応じて、我々の存在論的な「態度」を決定する必要があり、またそれに応じた認識論的手法を選択する必要があるのである。

統計学を哲学する

 

 

統計学入門 (基礎統計学Ⅰ)

統計学入門 (基礎統計学Ⅰ)

  • 発売日: 1991/07/09
  • メディア: 単行本