大塚淳先生インタビュー(その4)

人文科学者の役割

【——】  なるほど。今の話とちょうど関係するのが事前に準備した4つ目の質問です。哲学者あるいは人文科学研究者が、深層学習を中心とした人工知能研究そのものに貢献することは難しいかもしれませんが、どういう貢献が可能か。そういった辺りはいかがでしょうか。
【大塚】  どのような貢献が可能かというのは、まさに鈴木さんがおっしゃるように、なかなか難しくて、果たしてそんなことが可能なのかどうか分からないのですけれども、一つあり得る方向としては、先ほど来言ってきた課題ですね。つまり、深層学習は放っておいても勝手に発展するでしょうが、それを社会と接合するに当たって、何らかのストーリーがどうしても必要だと思うんですね。つまり、深層学習が良い、効果的なものだと社会的に認められたとしても、それが社会にどのように接合させていくべきかという課題は、また別にあると思うんですね。社会は様々なステークホルダーから成り立っていて、AIを使う人もいればそれに単に影響を受けるだけの人もいる。なので役に立つから使う、というだけでは済まないところがあって、そこら辺のところをうまく調和させるためのストーリーを組み立てるという作業があると思うのですが、哲学者や人文科学の研究者はそうしたストーリーをともに考えていくことができるのではないかと思います。
 先ほどの科学観の更新というか、科学観へのチャレンジというのがありましたけれども、そういうのは、過去、たくさん起こってきたことでありまして、例えばガリレオは、アリストテレス的な科学観に対するオルタナティブとしての科学観を立てて、そしてデカルトやカントはそれを正当化するというタスクを引き受けたわけです。同じように、19世紀にダーウィンが進化論と自然選択説を提案したときに、それはそれまでの科学とは相当違う形の科学だった。いわゆる物理学的な科学とも、実験生理学、細胞学のようなものとも毛色が違うし、あれはどういう意味で科学なのかという問題があり、ダーウィンはそうしたことを考えるために、同時代の科学哲学、ハーシェルとかヒューウェルを参照しているわけですね。そのような意味で、これが一つの新しい科学理論の形、新しい理解の形なんだということが言われたとき、どういう意味でこれが説明になっているのか、これがどう我々の理解を増してくれて、なぜ信頼できるのか、そういうふうなことに対するストーリーを作るという作業があって、これは優れて哲学的な作業であると思っています。
【——】  そこに関しては、何か具体的な手がかりになりそうなもの、哲学の中の道具立てでこういうものが使えそうというのは何かありますか。いきなり質問されても難しいと思いますが…
【大塚】  そうですね、具体的に何が使えるかはぱっとは思いつかないのですが、何がしかの貢献ができるのではないかと思うのは、先程も話した表現学習とか、説明可能なAI(Explainable AI)の分野ですね。これらは哲学的な観点から見たら、機械が何を捉えて・認識しているのかを明らかにしていく分野だと思いますけれども、それは同時に非常に概念的なことだと思うんです。例えば実際に得られた特徴量や表現をもとに、では機械はこんな理解・判断をしているんでしょう、と推察するためにはある種の概念的な翻訳をしてやる必要があって、その翻訳のあり方を考えるのは哲学的なタスクでもあると思います。そしてそれは、機械学習の判断を「理由の空間」にどう埋め込めるのか、という問題でもあります。特徴量や表現といった機械学習固有の専門用語が、我々人間による物事の捉え方・考え方とどのように関係しているのかを橋渡しする。そうしたストーリーを紡ぐ手助けができるかもしれない、という希望的観測を持っています。
【——】  実際に深層学習がやっていることを、どのくらいうまく我々の理由の空間に落とし込む、あるいは翻訳することができるかというのは、やってみないと分からないところでしょうか。
【大塚】  そうですね。
【——】  過度に単純化してしまったり、あるいは、実際にやっていることからかなり乖離した形の翻訳というか、ものすごい簡略化みたいなことをしてしまうのは、当然、問題があるわけですね。
【大塚】  そうですね。もちろん、科学の営みを哲学的に翻訳したり解釈するのも面白いことだとは思うのですが、それだけでなく、そもそも「科学が実際にやっていること」というのは必ずしも当事者にも明らかではない場合があって、それは何なのか、ということを一緒に考えていけたら面白いかなと。例えば先程あげた「説明可能なAI」にしても、そもそもAIを説明するというのはどういうことなのか、何をしたら説明したことになるのだろうか、ということは全く自明ではない。そこを哲学的に反省することは決して無駄ではないと思うんですね。哲学というのはそもそも、ゴールが明確に決まっていない問題に対して、少しずつ問いやゴールを明確にしていく、問題をWell-definedな形に落とし込んでいく営みであると私は思っているので、機械学習についてもそのような役割が果たせたら面白いのではないかなと思いますね。
【——】  説明可能なAIの試みはすでにいろいろありますが、実際にはすごく複雑な関数があるのだけれども、それを単純な線形回帰で近似して、すごく単純化した説明を与えるみたいなものもあれば、個別のモデルに関して、具体的にどういう特徴量をピックアップしているのかを明らかにするものもあればと、いろんな手法があるわけですが、そういったものに関しても、こういう説明だったらAIを説明していると言えるけれども、こういうのはあまりよい説明とは言えない、両者をより分けるようなことには十分関わっていける感じでしょうか。
【大塚】  そうですね。今ある選択肢をどう評価するかというのもそうでしょうし、そもそもどういう方向性でこの問題にアプローチしていったらいいのか、ということを考えるのも哲学的な課題かと思います。その辺はまだ何も言えませんけれども。
【——】  説明するとは何なのかということ自体を明確にすると。
【大塚】  そうですね。その辺が面白いんじゃないかなと思いますね。
【——】  ちなみに、逆方向の話、哲学を研究している人に向けて、深層学習なり、機械学習なり、あるいは統計的モデル全般でもよいですが、こういうものって哲学者にとって結構重要ですよ、学ぶ価値がありますよということに関してはどうでしょうか。哲学者ももう少し勉強したほうがよいとお考えでしょうか? 全員がやれということではないにせよ…
【大塚】  私自身が勉強しなければならないので、人様に言えるような立場にはないですが、もちろん学ぶ価値はあると思いますね。特に個人的には、深層学習がどういう文化的含意を持つのかに関心があるので、哲学に限らず、広く人文系一般の方にも関心を持ってもらって、議論を交わしたりするのも面白いのではないかと思っています。いわゆるAIの人文学における含意としては、倫理的・法学的な面が強調されてきました。また経済学的な側面もあるいし、心の哲学的な含意も当然あって、シンギュラリティーの議論などもされてきました。でもそこに回収されない社会的・文化的含意というのも考えていく必要があるのではないかと思っています。
 これはちょっと突拍子もないというか、見当違いな私見かもしれないのですが、信仰の問題というのが結構関係してくるのではないかと思っていて。実際、我々が理解できないことを認めるということは、まさに中世の神学における「信と知」の問題、つまり信じることと理性で理解することの間のせめぎ合いとしてずっと論じられてきたテーマです。神の意思というのは我々の理解を超える、それでも、あるいはそれゆえに信じるに値するものなんだという議論がずっとありますけれども、こうした考えは現代の科学、近代科学的理念とは対極にあるわけです。正直私自身、全然ピンと来ないのですが、ここに来て、「信仰」と十把一絡げに言うのはあまり良くないかもしれませんが、しかしそうした問題意識が実は今後の科学の発展に関連してくるのではないか、というおぼろげな印象を持っています。そこら辺については哲学史における豊かな蓄積がありますから、そういう知見も勉強していきたいというか、ぜひ知りたいなと思いますね。
【——】  そういう意味では、思想史とか、文化論とか、そういうことに関するバックグラウンドがある人にも深層学習とかにも少し目を向けてもらって、それをそういう大きなコンテクストの中に位置づけるとどうなるかというのを、ぜひそういうこともやってほしいという感じですね。
【大塚】  はい。個人的には、すごく聞きたいなと。
【——】  なるほど。ありがとうございます。

お薦めの文献

【——】最後に、これは特に人工知能研究者の方に伺っている質問で、人工知能研究について重要だとか、あるいは参考になる文献というのを、研究書でも、フィクションでも、あるいは、本じゃなくて映画でも、いろいろ含めてということで皆さんに伺っています。大塚さんにも、人工知能だけでなくて、むしろ、統計学、あるいは統計学の哲学、研究されていること全般に関わるもので構いませんので、大塚さんの問題関心から面白い本というのをいくつか挙げていただけますでしょうか。
【大塚】  そうですね、人工知能とは一見あまり関係ない本なのですが、科学史家セオドア・ポーターの、『数値と客観性(TRUST IN NUMBERS)』という本を挙げたいですね。これは古い話で、18〜9世紀世辺りの、いわゆるビッグデータとか、機械学習とか、コンピューターとか、そういう華々しいものは全くない時代の話なんですけれども。それなりに大部な本なので一言にまとめるのが難しいのですが、近代における「客観性」の潮流の中で、判断の主体が分野分野のエキスパートから「数字」に移っていく、その歴史的過程を詳らかにした本です。具体的に扱われるのは、例えば、保険数理士や会計士保険、技師や技術官僚なのですが、伝統的には、それぞれの分野に訓練を積んだ専門家がいて、その人達が分野の基本的なスタンダードを決めていたわけですね。例えば、保険の掛金をどれくらいにすべきか、どこに橋を架ければよいか、みたいなことを決めるとき、その判断は基本的には保険士や都市設計技師のようなエキスパートに一任されていた。ところが18,9世紀から、そうしたエキスパート・ジャッジメントがどんどん数字に置き換わっていく。つまり、保険士の経験や知識で掛金を決めるのではなくて、具体的に、この病気で大体どれだけ死んでいて払戻しがどれだけあったのか、まず数字を全部出せと。そうした一定の計算式から導き出された数字によって掛金を設定しようと。このように、様々な判断規準が、専門家の知識から、公共的で機械的な数字に置き換えられていく、という歴史的変遷が書かれている本です。セオドア・ポーターという人は科学史の大家で、統計学史の本も書いて何冊か翻訳もされているのですが、その代表作の一つです。これは古い話ではあるのですが、AIの今後の行く末を見るに当たって非常に参考になる話なのではないかと個人的には思っています。
 ポーターの描き出す、判断の客観化・数値化というものは、人間の主体的な判断をどんどん狭めていくというか、機械化して除いていく過程でもあるのですね。判断する主体としての人間や専門家の判断力というのを外部の機械的で客観的な数字にどんどん委譲していくプロセス、これこそが客観性というものの歴史的な成り立ちなんだ、という。これは今後のAIの行く末を暗示しているような気が私にはするのですね。つまり、我々は現在、何だかんだいって科学の専門家を信頼していますし、これまでも信頼してきた。しかし今後、そういうのがどんどん機械に置き換わっていくかもしれない。しかもそれは仕方なく置き換わっていくのではなく、むしろ科学者であれ専門家であれ、とにかくできるだけ人の手が介在していない、最初から最後までAIが行う判断のほうがより客観的な判断なんだ、という形で尊重されていくかもしれない。
 今の所は、社会の意見としては、機械の判断なんて何か胡散臭いという思いがまだ一般の人にはあると思いますし、自動運転に対する不信感みたいなものもまだ根強い。自動運転よりもプロのドライバーのほうが信頼できるし、何だったら自分のほうが運転が上手いと思っている人も多いかもしれない。でも恐らく、10年後、20年後には全く違っていて、自動運転だからこそ信頼できる、人間の運転なんて危なっかしくてとんでもない、というふうに確実になると思うんですね。そしてそれは自動運転だけじゃなくて、恐らく、科学とか、あるいは政策決定とか、そういうところでもなってくるかもしれない。つまり、人間の科学者がやった、ノーベル賞を取った科学者の研究だから信頼できるというんじゃなくて、いやいや、人の手でやっている実験なんて全く信頼できなくて、全自動化されたラボで機械的に統計処理までされた結果だからこそ信頼できる、というように科学の在り方が変わっていくのではないかと私は思っていて、それは結局、我々の判断力というのを機械にどんどん委譲していくことだと思うんですね。恐らくそれは不可避的に進むのだろうけれども、そのことによって我々の科学的理念や人間観はどのような影響を受けるのだろうか、ということを考えなきゃいけなくて、そういうときに過去の歴史から得られるものは決して少なくないのではないかと思っています。そういう意味で、この本は扱っている題材は古いですけれども、含意としては非常に現代的だと思っていて、これはトピックとちょっとずれるかもしれませんけれども、一つ御紹介させていただきました。
【——】  今のお話は、今日ずっと伺ってきたお話とも直結しているわけですね。今起こっている変化というのは、ポーターが歴史的に分析している18世紀から19世紀の話の延長線上で、主観的な判断が客観的な数値へ置き換わるという、その過程が続いているということでもあるし、ただそれだけではなくて、グラウンドセオリーのない機械で、インプット・アウトプットのパフォーマンスだけで信頼できるというふうにしてしまうという意味では、さらにもう一歩進んだものへの権限委譲が今は起こりつつあるのかもしれない。さらにもう一歩進んだ話になるのかもしれないですね。
【大塚】  そうですね。当時の話だったら、数値という形では出てはくるけど、基本的には人間が扱える量のデータなわけですね。なので「数値による判断」といっても、必要であれば統計量なども見て、平均はこれぐらいだから云々といったことは、あくまで人間がやっている。あるいは、数値から適切な数式を考えて保険料を決めているのも人間なわけです。ところが今の問題は、出てくる数値が多すぎて、そのデータの概要すら分からんという状況なので、数値を見て判断するということ自体も機械に任せる。我々は最終的に出てきた結論を見るだけというか、そういうふうな状況に今後なっていくとすると、今まさに鈴木さんがおっしゃったような、より深い形で権限を委譲するという話になるかもしれない。
【——】  まさに神を信じるみたいなレベルになりつつあるかもしれない。
【大塚】  そうですね、がらがらぽんで出てきたものを。
【——】  今日ずっとお話しされていた問題意識にまさに直結する、その問題に密接に関係している本ということになりますね、そうすると。
【大塚】  私はそういう意味で非常に興味深い本だなと思っています。
【——】  なるほど。ありがとうございます。
 予定していた時間も過ぎておりますので、これでインタビューを終了したいと思います。どうもありがとうございました。
【大塚】  ありがとうございました。

2022年3月28日Zoomによるオンラインインタビュー
聞き手:鈴木貴之

その1
その2
その3