大塚淳先生インタビュー(その3)

深層学習の社会実装とその課題

【——】  次は事前にお送りした3つ目の質問に関係することで、今のお話とも関係してきますが、今の深層学習、あるいは一般的に機械学習にどういった課題とか限界があるかということに関してはどうお考えでしょうか。
【大塚】  深層学習自体の限界があるのかどうかというのは、現段階では多分誰にも分からないと思いますので、私にも分からないです。因果推論をやっている人は因果の観点が欠けているとか言いますが、一方で因果も結局条件づけだからデータをそろえれば何とかなるんじゃないかという見方も当然あると思うし、そこら辺がどうなるのかは私には分からない。ただ、深層学習自体の課題ではないかもしれないけど、深層学習が与える課題はあるかもしれません。それはつまり、他の科学分野あるいは社会一般における深層学習技術の需要や取扱いについての問題ですが、これに関しては今後、数ステップの課題があるんじゃないかなと思っています。
 深層学習が分野として発展していくためには社会的に応用されていかなければならないわけですが、それに対して社会はどう応答して、どう受け入れていくのか、ということについての課題です。これは具体的にどういうことかといいますと、従来の統計的手法も当然社会的応用とともに発展してきたわけですが、これは先程来お話してきたように背景理論があって、そこからの説明が用意されているわけなんですね。そうした理論的背景をもとに、例えばこの手法を使うと擬陰性率や擬陽性率が何%です、だから概ね安全だけどこれぐらいのリスクは見込まれますというような説明が可能なんですけれども、そういう理論的指標がない場合は説明がなかなか難しくなる。特に、部外者というか、深層学習コミュニティー以外の立場からすると、具体的にこのモデルがどの程度信頼できるのか、そしてそれが誤作動を起こすとしてもどれくらいの割合で、それはどのような誤作動なのか、どういうふうな影響があるのかという説明がほしいわけですけど、そのための説明を下支えする理論のようなものがない。もちろん、単に過去の成績を参照して、今までこれこれだったので上手くいきますという説明はできますが、そこから一歩踏み込んだ、今までそうだったからといって本当にそうだと言えるのか、という懐疑論に対する理論的な支柱はないわけです。ミスの影響がそんなにないような問題だったら大して問題にならないのかもしれませんが、例えば自動運転のように事故が重大な帰結を生むケースでは話が違ってくるでしょうし、また実際に人が傷ついたり死んでしまったりということが起こったときに、何が悪かったのかという説明がどうしても求められる。そうした外部に対する説明というものが今後求められてくると思うんですね。理論というのは、そうした説明を与えていくれるある種のストーリーのようなものだと思うのです。となると、深層学習はどのような説明的ストーリーを立てられるのか、というところで一つ課題があるんじゃなかと思っています。
【——】  今の問題というのは、単純に間違いがどのくらいの割合で生じるかという話ではなくて、説明はきちんとできるけれどもエラーもそこそこ生じるようなものと、エラーは非常に少ないのだけど説明ができない深層学習みたいなものを比べたときに、たとえエラーは少ないとしても、説明がないということ自体は非常に問題になってくるだろうということでしょうか。自動運転などでは事故を起こしたときに誰に責任を負わせたらよいのかというような問題もありますが、それとは別に、人間にとって理解できるような説明、原理的な説明がないということ自体が問題となる。我々が受容する上ではそれがどうしても必要になってくるのかもしれませんね。
【大塚】  的確な補足、ありがとうございます。今、責任ということをあげていただきましたけれども、例えば、自動運転で事故が起こったときに、どこに責任があるのか、ということが大きな問題となってくると思うのですが、それは説明の問題と深く関係していると思うんですね。というのも、なぜこの事故が起こったのかということが分からない限り、責任を分配しようがないからです。対向車がいきなり割り込んできたから事故になった、だから相手方に責任があると言うとき、責任の帰属と物事の説明は表裏一体になっています。なのでそうした事故は数万回に1回しか起こりませんとか、そういうことではなくて、この起こってしまった事故においてどのファクターが効いていたのかということを説明しなければならなくて、それがまさに、今、鈴木さんがおっしゃった責任ということと深く関わってくるのだと思います。
 哲学者のWilfrid Sellarsは、我々の社会は理由の空間であると言います。社会の構成要因となるものには、常に一定の理由や正当化が求められると。その意味でも、深層学習が社会という「理由の空間」に入ってくるのであったら、ある程度、そこで起こり得ることに関して理由づけないし説明が求められてくると思います。そのときにどのような説明があり得るのか、ということは一つのチャレンジではあると思います。
【——】  そういう意味では、先ほどのお話にあったように、純粋な科学研究の内部で有用なモデルだったり、有用な予測の道具として使っている分には、セオリーがないというのはひょっとしたらそれほど問題にならないかもしれないけど、実際に社会で使うということになってくると、それが非常に大きな問題になってくるわけですね。
【大塚】  そのような気がします。
【——】  その点に関しては、例えば、深層学習でも、基本的な動作原理はもちろん説明ができるわけですが、それはすごく一般的な話でしかないということもありますし、一般の人にとっては非常に数学的で難しいということもあるわけですが、そういう意味では、深層学習のモデルのようなものを考えると、そもそも今はセオリーがないということもありますが、何かを見いだすのはそもそも難しいということもあるのでしょうか。
【大塚】  見いだすというのは、そういうふうなセオリーを見つけるのが難しいということですか。
【——】  むしろ、見つけ出せたとしても、それが非常に高度数学的だとすると、社会で実際に使えるようなところに落とし込むのが難しいという。それは見つかった後の話なのかもしれないですけれども。
【大塚】  そうですね。そこら辺はいろんな段階での難しさがあるでしょうね。深層学習が事柄として難しいというのは確かにそうで、少なくとも一般の市民がモデルを見てパッと理解できるようなものではないとは思うんですけれども、それはほとんどあらゆる技術でそうですよね。例えば、薬害事件とか飛行機が墜落したとか、そういう事故があったときに、我々素人がその薬の原論文を読めるのかとか、フライトレコーダーを解析して何か分かるのかというと、分からないわけですね。一般市民は私も含めて全然分からない、でも少なくとも分かる人がいるわけですね。それは医学なり工学の専門家だったりするわけですけれども、そういう専門家あるいはコミュニティーがあって、その専門家コミュニティーが、かくかくしかじかなのでこれは薬害だ、あるいは飛行士の操縦ミスだ、この部品が整備不良だった、というような形の結論を下す。もちろんそうした専門家コミュニティーの背後には学会なり研究機関があって、そういうも全体として結論が保証されているのだと我々は理解しているので、市民として、それを承服というか、受け入れることができる。
 一方で今後、問題になっていくのは、そういうふうな専門家ないしはコミュニティーすら存在しないかもしれないという、原理的な可能性です。そこら辺が難しくなっていくのではないかなと。よく分からないけど、AIの結論的にはこうなっているっぽいですみたいな。これはあまりにも雑で、本当はもうちょっと詳しいことが言えるのかもしれませんけれども、少なくとも人間が理解できる、この場合人間というのは我々一般市民というより専門家ですが、専門家ですら理解できる範囲が少しずつ少なくなっていく。特にいわゆる高次元科学と言われるような、複雑な物事を複雑なまま判断することが深層学習モデルは得意なわけですけれども、そこのところを人間である研究者が一望に見渡したり、1個1個つぶしていったりすることはできなくなっていくわけで、そうなったときに我々は最終的に何を信頼すればいいのだろうかという問題かなと思います。
【——】  なるほど。その点では、従来の複雑なテクノロジーと深層学習の間には少なくとも現状では違いがあるということですね。
【大塚】  そうですね。程度の違いなのかもしれないですけれども、その程度がどんどん開いていくのかなというふうな気がしますね。

【——】  他方で、先ほど、自然科学のエンジニアリング化というような話で出てきたのと同じように、はっきりした原理は専門家でさえ分からないのだけれども、そういうものを受容するように社会の側が変わるという可能性もひょっとしたらあるのかもしれませんね。現状では受容し難いけれども、そういうテクノロジーが、あまりにも当たり前になる、身の回りにたくさん出てくると、ひょっとしたら社会の側の捉え方が変わってくるのかもしれないですね。
【大塚】  そうですね。そこは本当に面白い、と言ったら幾分不謹慎なのかもしれませんが、興味深い可能性だと思います。それは言ってしまえば、深層学習が魔術的になっていくということだと思います。というのも、機序はよく分からないけど効果的だから受け入れる、というのは一種の魔術的な思考だと言えるからです。つまり、我々の理性を超えたところでの信仰ですね。そういうふうなところに社会が戻っていく、それを受容するように社会が変わっていくということは十分あり得ることだと思っていまして、そうだとしたら、いわゆる社会の流れとしても、数世紀単位の文明の流れとしても、興味深いシフトなのかなと思います。
【——】  そういう意味では、ひょっとしたらディープラーニングというのは、今我々が使っているようなテクノロジーなり科学理論なりとは違う、かなり異質なもの、科学や技術のターニングポイントになるようなものなのかもしれないと。
【大塚】  本当のところはわからないですが、その可能性はあるかもしれません。もちろん、科学、特に工学的な関心に根ざす科学技術では、分からないことでもどんどん使っていくわけなので、ディープラーニングが初めてというわけでもないですし、それと質的に異なるかどうかも分からないですけれども、少なくとも量および進展の速さに関しては、一つのインパクトがあると思います。もちろん、今後グラウンドセオリーが発見されて全てが明らかになる日もひょっとしたら来るかもしれませんけど、そこら辺は分からない。
【——】  先ほども度々言及されていましたが、医学というのは、たしかにそういう在り方がずっと残っている、作用機序が十分には分かってなくても効果があれば薬は使うというのを、我々がある意味自然に受け入れている分野でもありますね。そういう意味では、そういうあり方が全くないわけではないですね。
【大塚】  そうですね。でもそれが効くとか効かないとかを判断するときには統計的な検定を行ったり、しっかりしたプロトコルがあるんですね。仮に機序が分からない薬であっても、それが認証されるまでには、治験の手続があって、実験の細部が逐一まで決められて、この検定を使いますみたいな形でやって、それでこういうデータが出たからオーケーですとか駄目ですとかが判定されるので、そういう意味での判断プロセスはかなり理論的にも整っているわけです。なぜ効くかはよく分からないということはあっても、統計学というのはむしろそういう何だかよく分からないものを、一定の理論に基づいた検証プロトコルに載せることで推論としての良さを保証する、という役目を担ってきた。ところが、そうした判断規準がよくわからない、それについての理論もない、というようになっていくのは、それなりにインパクトがあることかなと思いますね。
【——】  なるほど。そういう意味では、深層ニューラルネットワークは、純粋に理論的に科学哲学の研究対象としても興味深いし、社会が使う広い意味での道具としてもかなり特殊で、興味深い対象だという感じですね。
【大塚】  そうですね。我々の科学観とか、客観的であるというのはどういうことなのかとか、何が信頼できるのかとか、そうした概念自体を変えていく可能性がある点が興味深いと思いますね。これを拙著では「正当化」という観点から論じましたが、正当化されているということがどういうことなのかは、全ての時代・社会で普遍的な理解があるわけでは決してなくて、時代によって変わってきているわけです。例えば、中世の西欧においては、聖書に書いてあるということが判断を正当化する最終的な根拠だった、というように。統計学というのは、現在社会における正当化の形について、一つの典型となっているわけですが、深層学習というのはそうした正当化の考え方を変えてしまうかもしれない。そして正当化というものは、科学的知識とか、我々が信頼するもの、良いと認めるもの、そういう規範的な判断全般に対して密接な関係を持っているわけですけど、その考え方自体を少し変えていく可能性があるというのは、我々の社会の考え方自体に対する一つのチャレンジであるかなというふうな気がします。
【——】  そうすると、非常に大きなテーマにつながってくる。結構、ポテンシャルがある。
【大塚】  そうですね。ここら辺は私も全く素人なので、思想史とか文化史などの専門家にいろいろ教えを請いたいところです。
【——】  むしろ、そういう科学思想史的なこととかに関心にある人とかももっともっと注目してよいものなのかもしれないということですね、逆に言うと。
【大塚】  そうだと思います。

その4に続く

その1
その2