にんじんブログ

にんじんの生活・勉強の記録です。

MENU にんじんコンテンツを一望しよう!「3CS」

にんじんと読む「統計学を哲学する(大塚淳)」🥕 第四章②

第四章 モデル選択と深層学習(②)

 予測に特化したアプローチとして、深層学習deep learningを取り上げよう。深層学習の標準的なモデルは多層ニューラルネットワークdeep neural networkである。ニューラルネットの一つ一つの点が確率変数を表しており、これを積み上げる。最初のものが次に影響を与え、次に、次に、次に、で最後に至る。第一ステップのN個の確率変数のすべては、次の第二ステップの一つの確率変数に影響する。この変化の関数を活性化関数と呼ぶ。総パラメータ数はふつう、何千万次元にもおよび、実際に書き下すことは到底かなわない。

 さて、これを具体的に決定していくわけだが、そのアプローチは基本的に今までの道のりとさほど変わらない。誤差関数を用意して、どれぐらいハズれているかをデータから想定していく。とはいえ、今回のケースだとちょっと実験するだけでとんでもない数のデータを処理しなければならないため、誤差逆伝播法backpropagation methodという手法を用いる。とはいえ、理屈ではこの方法でうまくいくのだが、実際やろうとすると値がゼロになったり無限大になったりして具合が悪くなるのがほとんどである。これを勾配消失問題vanishing gradient problemと呼ぶ。しかもこれがうまくいったとしても、誤差関数の形が複雑だと結局求められずに終わる。これをなんとかするために色んな手が講じられているところで、その色んな手を組み合わせることによってなんとか前に押し進めている。

 深層学習の成功とそれによる人工知能ブームはパラダイム・シフトをもたらしている。それはAICで見たように、真理のプラグマティックな転換である。しかしプラグマティストが主張するように、真理が内在的な「役に立つ」という価値しかもたないなら、私たちがものを認識するプロセスは真理を生み出す装置ではなく『こうすりゃ役に立つという道具、技術、習慣に似たもの』となるだろう。

 真理への探究を続けるとしても、私たちは、AIが大量に処理し、弾き出した答えを「知識」としてカウントしてよいのかという認識論的問題に立たされる。アインシュタイン相対性理論を見つけたのと同じように、AIがコレコレの法則を見つけ出したと言ってよいだろうか。言い換えれば、深層モデルによってもたらされる発見は認識論的に正当化されているのか?

 そこで信頼性主義を再び持ち出すのが自然だろう。AIの弾き出しを認識プロセスを、信頼性主義における正当化プロセスのうちに組み込むことは何ら問題ないように思われる。ところが話はこれで終わりではない。古典統計の推論を正当化したときは、それがどの程度の信頼できるのかを数学的な具体的指標(サイズ、検出力)として導き出す理論的手だてがあったのに対して、深層学習においてはそれがいまだにない。モデルの信頼性はむしろ「Googleが作ったんだから」といったような、モデル自体がもつ性質として、属モデル的な仕方で理解されてしまう。

 これを考えるにあたって参照したいのが徳認識論virtue epistemologyである。これは、正当化の根拠を、認識する主体自身が持つ性質や性格に求めるもので、徳倫理学に由来する考え方である。ある信念が正当化されるのは、その信念が認識者の認識的徳の現われであるときだというのだが、なにが認識的徳なのかは意見が分かれるところであるが、なんてことはない、認識的徳というのは認識に関わる限りで人が有する能力や長所の総称に過ぎない。私たちがド素人よりも学者の意見を信頼するのはそのような能力をもっていると考えるからで、このとき私たちたちの裏で働いているのは徳認識論的正当化概念であろう。友人が「先生が言ってたぜ」と言えば、なんの力も持たない私が言うよりも余程知っていると呼べるのだ。

 認識的徳を真理促進的な傾向性、つまりより真理へと導く性質へと言い換える者もいる。聡明で注意深い人は正しい信念を得やすい傾向にあるからだ。だから、適切に学習された深層モデルは認識的徳を有するため、たしかに正当化に成功しているわけだ。そして無論、「適切な仕方で」の部分が問題になるが、この点については、現代認識論入門: ゲティア問題から徳認識論までに詳しい。

 次の課題は認識的徳の解明、つまりなぜその構造だとうまくいくのだろうということだ。深層モデルがデータから何をどのように学習しているのがその機序を理解しなければ、AIを積んだ看板に反応して止まる全自動の車が、看板にちょっと落書きをされるだけで激突することになりかねない。

 私たちは深層モデルを解剖することでこの機序を明らかにすることもできるが、また違った視点もある。ソウザは知識というものを動物的のものと反省的のものとに分けた。奢ってもらったビールの銘柄がナントカであることを私はなんとなく察したとしても、私たちは「なぜ」わかったのかを理解していない。反省的知識はそれについての理解を与えるもので、これを持っていれば「より深い知識を持っている」と言ってもいいだろう。だからAIにこう訊いてみるのだ。「なぜわかった?」と。正当化可能な根拠を示すことができるAIを説明可能な人工知能と呼び、これを目指す試みもある。

 

 ところで私たちはヒトならヒト、イヌならイヌで異なったリアル・パターンの内に生きている。これは深層モデルだって同じようなものである。画像を与えられたシンソウモデルはそれがリンゴであることを私たちと同じように色合いや形から判定しているとは限らない。このことをバッと押し広げてみてみれば、深層モデルが世界のうちに発見してくるパターンが、私たちのリアルと一致する保証はまったくないということでもある。その深層モデル独自の自然種を私たちが反省することはできるのだろうか? というかそもそも、この深層モデルは私たちとは違う自然種を用いているだなんてどうやってわかるのか。

 これはクワインが提示した翻訳の不確定性indeterminacy of translationに通じる。二つの言語間の正しい翻訳なるものはただ一つではなく、複数の可能な翻訳ルールが存在するというものである。未知の部族がウサギを見て「ガヴァガイ!」というからといってそれが「ウサギ」という意味とは限らない。「ご先祖様が来てくれたぞ」と言っているのかもしれない。

 クワインが言いたいことはそもそも私たちがあぶり出そうとしている「真の意味内容」などないのではないか、ということだ。私たちはある種のストーリーを深層モデルの内に見出すかもしれないが、結局解釈の一つに過ぎない。だからもうAIがうまくやっているならそれでいいだろうという気分にもなってくる。とはいえ、あるモデルをよそへ売り出すときに「さあ説明せよ」と言われたら、よその人間に向けてどう説明しろと言うのか。成功事例を見せればいい、というのは所詮内部の人間の感覚である。私たちはこれまでの章で見て来たようなベイズ統計や古典統計などのお話を語るかもしれない。しかしそれは最終的には、形而上学的なお話にほかならず、成功しているとはいいがたいのだった。とはいえ、それは役に立つお話であり、その答えが客観性を欠くものであったとしても容易に切りすぎてることはできない、アカウンタビリティを果たす一つの方法を提供する。

 

 

 

統計学入門 (基礎統計学Ⅰ)

統計学入門 (基礎統計学Ⅰ)

  • 発売日: 1991/07/09
  • メディア: 単行本