柴田正良先生インタビュー(その2)

失業問題から道徳共同体の構築へ

【――】 80年代から90年代の第2次人工知能ブームのときには、哲学者がいろいろ口を出していたわけですが、そのときといまを比べて、問題状況がどのぐらい違っているか、その辺はどうお考えでしょうか?
【柴田】 本質的には、私はあまり違ってないと思うんですよ。ただ、社会の中での人工知能問題というか、ロボット問題の受け取られ方が相当に違っているとは思います。以前は、人間にどれだけ近づくんだろうとか、近づいたねとか、すごいよねとかいうことぐらいで、人間との距離というのはすごくあるとみんな思っていたと思うんですよね。ロボットが賢くなるというのは相当先の話だよねと。でも、いまは相当に近いとみんな感じている。よく言われるシンギュラー・ポイントみたいに、人工知能あるいはロボットが人間の知能を超えるというようなことが割と実感を持って取り沙汰されていて、恐怖の対象だったり、あるいは少なくとも困惑の対象となっていたりする。そういう意味で言えば、社会的な影響というか、社会との関係性で、この問題の扱われ方が大分違っているという感じはします。
 ただし、本質的には、やはりあまり違っているという印象はなくて、基本は、人間がもっている知能、考える能力とか推論能力とか、物をつくる能力というのがどれぐらい人工的に置きかえられるか。それが問題になっていると思うんですよね。
 もう一つは、個別領域で、どう考えても人間よりもすぐれていることがある程度実証された形で出てきたということがある。Watsonが、何人もの医者が見ても見抜けなかったような癌を見つけることができたというような。そういう意味で言うと、明らかにその部分は人間が追いつけないというか、人間の能力を超えている部であって、ロボットあるいはAIによって初めてなされた。それをもう認めざるをえなくなった、ということがあると思うんです。
 だから、そういう意味で、社会的なインパクトというか、もう少し言えば、産業構造の中に組み込まれてくる仕方というか、それがやっぱり違ってきた。ただし、能力それ自体が、じゃあ、全く違う能力を備えるようになったのかというと、そこはどうなんだろうというところがある。いまだに、例えば人間が直観でやっている方が優れていると言ってみたり、それから、芸術系の話でも、本当に創作活動がAIにできるのか、できないだろうと言っているようなところとか、そこは残しておいてほしいという部分がまだみんなにはあると思うんですよね。
【――】 そういう意味では、質的な転換があったから何か新しい話が出てきたというよりは、単純に性能が上がって、量的な変化が生じたにすぎないと。
【柴田】 そうそう。性能が上がって、それで応用されやすくなって、実際に応用された。
【――】 社会的な問題意識としては、職場を奪われるというようなタイプの関心がかなり高くなっていますが。
【柴田】 最近、2つの高校から別々にインタビューを受けたんですよね。それはAIとかロボットがこのまま進化したら、僕たちの職業はなくなっちゃうんでしょうか、みたいな問題意識です。彼らにとって、それは割と切実なんですよ。SFの映画、たくさんあるじゃないですか。『ターミネーター』みたいな、人工知能がやがて強大になって、人類を支配してしまうというような映画が。そういうのが、高校生にとってはだんだんリアリティを持ってきている。
【――】 それに対してどのような回答をされたのでしょうか?
【柴田】 その問題が、結局、道徳共同体をいかにつくるかというところに落ちつくという風に伝えたんだけど、うまく伝わったかどうか分からない。まず短期間的に、AIとかロボットが出現して、人間の職場を奪ってしまうというのはあると思うんです。いままで人間がこれをやっていたのが、もうロボットでいいよと。それは、産業とか機械とかが進んでいけばどこでも起きてきたことなので、それはもはや避けがたいと思うんですよね。
 ただし、これは基本的には人間の富の分配の問題だろうと思います。ロボットを使っている人たちとか、AIを生み出している人たちに富が集中して、残りが貧困層になっちゃうというのは、まずいわけです。だけど、これは技術の問題じゃなくて、政治・経済の問題です。ここは何とかわれわれが人間の知恵で解決できる。というのは、今のところ、ロボットがロボット自身のために何かを要求しているというのはないからです。今、われわれが使っているロボットとかAIをよくするために、使っている人が何かを要求するということはある。例えばロボットの人工知能をもうちょっと高性能なものにしようよとか、そういうことはあるけれども、それはロボット自身が自分のために要求しているのじゃあない。
 だから、そのものがそのものであるがゆえに持っている価値、まあカントみたいな話ですけど、ロボットはそういう価値を備えた存在にはまだなっていない。今のところ、ロボットもAIも手段としての価値しか持っていない。この限りにおいては、いままでの科学技術の発達によって、職場の構造が変わったというのと同じで、いかにしてわれわれが労働時間をうまく配分して、富を配分するかという問題に帰着するから、そんなに心配しなくていい。政治家の動向をよく見ておこうね、という話です。とても大事な話ですが。
 だけど、問題はその先にあって、じゃあ、ロボットが自分自身のために何かを要求したらどうなるのか。ロボットが倫理的、道徳的な行為者になったときに、一体われわれはどうするのか。そのときにわれわれ人間としては、同じ道徳共同体の一員として、ロボットを何らかの形で位置づけなくてはならないのではないか。もしそれが嫌だったら、そんなロボット、つまり、独立した人格を持つようなロボットをつくるのはもう法律で禁止しましょうということになるかもしれない。
 でも、そういうロボットをつくれるようになってしまったときには、法律でどんなに禁止しても、人間はつくっちゃうでしょう。人間がつくっちゃったら、そのロボットが自分の子孫というか、仲間をつくっちゃったりして、もうどうにもならない。そうすると、最終的なところでは、ロボットと人間、あるいはもしかするとエイリアンも入ってくるかもしれないけれども、そういうものたちを全部入れ込んだような道徳共同体をいかにしてつくれるかという話になっていかざるをえないんじゃないか。それはちょうど、シンギュラー・ポイントを超えた段階で問題になる話。でも、後半部分は高校生には理解されなかったかもしれない。(笑)
【――】 長期的にはそのような話になるのに対して、短期的にはむしろ、失業問題のようなどちらかというと政治の問題になるということですが、そういう意味では、いままさに人々が気にしている人工知能絡みの問題というのは、人工知能そのものというよりは、むしろ社会制度の問題だという感覚でしょうか。
【柴田】 そういう感じの方が強いかな。あともう一つは、われわれがありがたがってきた能力というのがあるじゃないですか。たとえば、いま大学入試の問題を変えましょうとやっている。今は、基本的にいろいろな知識を蓄えて、それを再生することに長けているのが高く評価される。でも、それはもうスマホに任せればいいじゃないかとみんな思っている。試験にしても、いまはスマホ厳禁と言っているけれども、スマホ使いながらでも解きにくい問題というのがあって、その能力が求められているのだと。そうすると、一つインパクトがあるのは、われわれ人間の能力観というか、教育観というか、「僕らは何を勉強すればいいんだろう」ということが変わるかもしれない。こういう能力を持って、例えば高校でも大学でも今まではこういう能力を持って、卒業証書をもらったら、一応ちゃんと就職できて、飯が食べられる、給料もらえるんですよと言っていたのが、そういう能力だったら、AIがやっているじゃないですか、ということになる。(笑)
【――】 人間ならではの能力は何だろう、ということが問題になると。
【柴田】 うん。そうです。高校生の場合は、自分が何を学んだらいいのか、何をスキルとして身につけたらいいのかということについては、ちょっと不安がっているところがありますよね。いろんなものが簡単にできてしまう・・・。
 そういう意味では、当然予想されたことだけども、それがだんだんみんなに実感されてきたという、そこが今の状況かなと思います。本質は変わってないと思うんですけどね。第2次ブームの頃と。

表象・多重実現・クオリア・経験

【――】 かつての人工知能ブームのときに、哲学者が、向こうだったらドレイファスやデネットらが、日本でもいろいろな人が議論をしていて、そこにはいろんな論点があったわけですが、結局、一番重要な論点というのは何だったとお考えでしょうか?
【柴田】 一つは、さっきの、フォーダーが言っていたような表象についての領域。つまり、認知科学というのは本当に個別科学として自律してあるのかどうか。やっぱりここにまだ決着がついてないと思うんですよね。それからもう一つは、オントロジカルには物理主義をやっぱり私としては採らざるをえないと思うんですけど、物理主義のようなものを議論しようとしたときに、還元的物理主義と非還元的物理主義がある。キムがしかけたような心的因果についての問題があって、それをどう理解するかと考えたときに、どういうタイプの物理主義がこの現実世界で成り立っているのか、という問題設定がやっぱりどうしても必要だという想いがあったのですね。
 それからもう一つは、多重実現を認めて、心の機能をロボットにも、あるいはAIにも実現させようとしたときに、意識を2つの面で考えるとすると、ファンクショナルな意識、機能的な意識と、フェノメナルな意識、現象的な意識の2つがあって、多重実現できそうなのは、機能的な意識だと考えられる。もう一方のフェノメナルな方、クオリアそのものとか自分に現れる限りの意識、これをどうするんだという問題がある。それは哲学屋がやっぱり言わなくてはならない部分でしょう。
 したがって、クオリアみたいなのを、デネットみたいに、「そんなものはないんです」と言ってしまうのも一つの手なのかもしれないけど、これがどういう問題かを整理して、解決のある、なしがどうなるのかを見通せるようにするということは必要で、これはまだ最終的に終わってないと思うんですよ。
 私の中では、哲学の仕事って何だろうと考えたときに、それは基本的には、われわれのこの現実世界がどういうタイプの可能世界であるかについての説得力のある全体像を提案することだと思うんです。全体像は、われわれが持っている常識、それから科学の成果、その他もろもろとなるべく整合的でなければならない。一部は常識を裏切らざるをえないというか、違うよねと言わざるをえないところもあるだろうけれども。哲学屋が描けるというのはそういう大きな全体の図柄だと思うんですよね。ここはやっぱり重要で、それを提起し続けるということは今後も必要なんじゃないかと思います。そういう意味では、これはなかなか決着つかないし、決着つきそうもないんだけども。
【――】 ある意味、「心の哲学」の重要な問題が全部そこに関係してくる?
【柴田】 そうそう。その中でしか多分、みんなを納得させられるような全体イメージはつくれない。
【――】 たとえば、クオリアの話と、人工知能に関する哲学的問題は、具体的にはどう関係しているのでしょう?例えば、柴田先生は『ロボットの心』や『シリーズ心の哲学』に収録された論文では、言葉の意味理解やフレーム問題を中心的に論じられていますが、これらの問題と、いわゆるクオリアの問題はどう関係するのでしょう?
【柴田】 私の立場はその中でぶれていると思うんですけど、いま思うに、基本的には分けられるんですよ。
 意味理解に関しても、恐らくわれわれは最初の母語というか、第一次言語習得みたいなところに関しては、相当いろんな感覚というのを文法的な知識とか何かと一体となって持っていると思うんですよね。例えば、ものすごく微妙な言い回しなんだけど、「これってやっぱりここでは変だわ」みたいな。そういうのを感覚として持っている。そういう部分も、自分では以前、クオリアと言っちゃっていますけど、実際問題としては一つの機能ですよね。だから、そこに、は別段、クオリアであるがゆえの困難さってあんまりない。
【――】 いわゆるクオリアではないけれども、明示的な定義とか規則では表せないようなことが問題になっていると。
【柴田】 そうそう。だから、クオリアとしてまとめても何にも解決しないし、逆に、クオリアだから人工的に全然そんなの持てませんということはないと思うんですよ。したがって、例えば意味理解を実現しようとしたときに、日本語の辞書とか何かを全部AIに詰め込んでやって、それで、じゃあ、普通の日本語の使い手と同じように、そういう微妙な反応をするかというと、そこはちょっと違うんじゃないか。意味の中のどこを選び出すんですかとか、辞書をどう使うんですかといったときに、結局、文脈的な理解とか状況理解も必要だろうということだとすると、意味理解は統語論だけの問題ではない。
【――】 そのあたりを人間と同じレベルで実現するには何が必要かは、まだまだ見えていない?
【柴田】 まだまだ。全然見えてない。
【――】 単に例文をたくさん、学習とかいうレベルでは解決しないだろうと。
【柴田】 しないと思いますね。
【――】 ある程度実際に現実世界で行動できるようなものでないとだめだということでしょうか。
【柴田】 だめだと思うんですよね。やっぱり実地の経験というのか、個人個人の「でこぼこ」ってあると思うんですよね。それがある種の制約で、そういう制約の下に自分なりの言語理解があって、それがベースにならないと、いわゆる日本語が使える人というか、日本語がわかるAIにはならないんじゃないか。そうすると、どうしても身体性みたいなものが必要なんじゃないか、という感じはしますよね。
【――】 道徳的な善悪に関しても同様でしょうか?
【柴田】 そうですね。道徳の善悪に関しても、結局、何が正しくて、何が間違っているかということについて、われわれはフラットではない。その中で、何か規則を選択するときに、直観的な部分があるとするじゃないですか。「これはだめ」とかね。「こいつは許せん」とか、あるいは「これはすごいね」というような。そういう直観のようなものをもつには、経験の主体となって培ってきた視点というのがないとダメでしょう。
【――】 ほんとうにフラットな状態だとどうしようもないと。
【柴田】 どうしようもない。せいぜいやれるのは、功利主義的に計算するみたいな話。死者が5人ではなく1人で済むから、トロリーをこっちに進めて1人に死んでもらう、それで何の問題もないよ、というような話。それは多分違うんじゃないかなという感じがしますね。
【――】 フレーム問題に関しても同じような構図があるのでしょうか?
【柴田】 そうですね。フレーム問題も基本的には、どれだけローカルな文脈に自分を委ねていいのかという問題だと思うんですよね。一般的な知識を参照しようとしたら、物理学の法則から何からが関係してくる。そんなこと、誰もやらないし、やってられない。そうすると、どれだけそこを省略してもいいかという問題に帰着する。そうすると、やっぱりフレーム問題にも一般的な解はないんだという感じがするんですよね。
 ある経験の主体があって、それが世界の中で行動を起こす。そのときにどういうような問題を解決しなくちゃいけないかという当面の課題が、今までの経験から割と普通に出てくる。それでもちろん全部解決するわけじゃないんだけど、多くのものについては、無視してもいい。その無視してもいいようなものがごく自然にでき上がるというときに、一個一個フレームを覚えておいて、それを切りかえているというわけではないのではないか。
【――】 そこでも、実際にこの世界でいろいろ経験してきたことが、何らかの仕方で効いていると。
【柴田】 効いている。効いているんだけど、その効き方がわからないのね。われわれは、ニューラルネットワークみたいな形で、それを貯めている。われわれは、猫と犬との区別というのを辞書的な形にして定義しているのではなくて、こういう形だったらこれは猫だと判断する暗黙知のつくりを持っている。とくに、言語的な知識を呼び出しているというか、言語的な表象を呼び出しているというのとは違うんじゃないか。

大きな図柄を描くことが哲学者の仕事

【――】 最後に、人工知能の哲学的な問題に関連する文献で、おもしろいもの、おすすめのものがあれば、紹介していただけますでしょうか。
【柴田】 そうですね。一つはデネットの『「志向姿勢」の哲学』ですね。ほかには、ジェグウォン・キムの『物理世界のなかの心』。それから、これはちょっと外れるけど、ドーキンスの『利己的な遺伝子』。これは、全体のパースペクティブと人類をどういう形で理解するのかという点で重要。
【柴田】 フォーダーの本で訳されているのは?
【――】 『精神のモジュール形式』ですね。
【柴田】 個別科学の自律性をオントロジカルに言っているような論文は、訳されていないんですよね。
【――】 そうですね。’Special Sciences’などは訳されていません。
【柴田】 あとはパトナムの多重実現に関するもの[たとえば’The Nature of Mental States’]。
【――】 それも訳されていませんね。
【柴田】 それから、あとは、サールの中国語の部屋の話。それとチャルマーズの『意識する心』。そんなものかな。
【――】 ある意味で、「心の哲学」の重要文献がすべて最終的には関わってきますね。
【柴田】 そうですね。
【――】 いまは、「心の哲学」の大きい問題とは離れたところで、人工知能の社会的な影響がクローズアップされていますが、根本的な問題にも立ちかえる必要があるということでしょうか。
【柴田】 そう。それが重要だと思うんですよ。それで、先ほどちょっと言ったけど、「じゃあ、哲学は何をやるの?」と言われたときに、この現実世界はどういうタイプの可能世界かというようなことについての見通しが必要です。そこから人間の未来についての方向性を引き出せるものなら引き出す。絶望的にならざるをえないかもしれないし、「ここから先は、未来の人間にもうお任せで、どうなるかわからないよね」と言うんだったら、それはそれで線引きをする。そういう一つの図柄を描き出す。それはやっぱり哲学の非常に重要な使命というか、能力というか、期待されていないかもしれないけど、やるべきことだと思います。

(終)

2019年2月18日、金沢大学角間キャンパスにて
聞き手:鈴木貴之