松原仁先生インタビュー(その3)

トップダウンかボトムアップか

【――】 人工知能学会の学会誌に掲載された論文[「「AIマップ−人工知能における基本的問題」へのコメント」]で、人工知能研究を進める上では、極端なトップダウンの自然言語処理みたいな課題から攻めるのも、自律型のロボットを作るというような極端にボトムアップの課題から攻めるのも、どちらも極端すぎてよくないということを書かれていました。グランドチャレンジのような、人工知能研究を大きく進展させる手がかりになるような問題には、やはり適切なレベルがあるのでしょうか。
【松原】 そうなんです。コメント対象の論文を書いた橋田浩一とは同僚なんですけど、彼は自然言語処理から入って、僕は画像認識から入って、やっぱりここで書いているように、人間をほかの動物と区別しているのは言葉だと。人間の行動ないし知能とが複雑な言葉によって支えられているのはそのとおりなんだけど。進化の過程ではやっぱり最後のほうにできている。
 一方、画像認識というのは、かなりの低次な動物でも持ってる能力で。彼とさんざん議論したことありますけど、最終的には人間のような知能を目指すときにはどちらも目指すんだけど、とりあえずは画像認識とかそういうのができるようになって、その能力があって自然言語処理というのができるようになるというほうがストーリーとしては自然じゃないかというのが、僕の立場。それは人工的に構成するときの順番ですけどね。これは大分前、ディープラーニングの前の話ですけど。
 ディープラーニングに記号処理をつなげるという話を先程しましたが、ディープラーニングで、画像認識とか音声認識のレベルがすごいよくなっているじゃないですか。だから、今は自然言語処理の研究が進むチャンスだと思うんですね。ぱっと見たものが何かというのがわかるようになってきたんで、それがあることによって目とか耳を持ってないコンピューターに自然言語処理の能力を学習させることが可能になる。人間も、目が見えなかったり耳が聞こえなかったりするほうが、言葉をうまく獲得するのは難しい。人工的なシステムでもそうじゃないかと思うので。最近僕が自然言語処理にちょっと入ってきたのは、ようやく自然言語処理を上にのっけるというのができそうなタイミングになってきたのかなというのがあります。
【――】 かといって、例えば、ゴキブリみたいなものをロボットをつくるとかというところから全部積み上げていかなきゃいけないわけではないと。
【松原】 ない。いろんなところで書いてるけど、僕は、ブルックスのサブサンプションっていいと思うし好きだと思う。基本的には賛成なんだけど。ゴキブリから人間まで、本当に全部作っていくの? ということですよね。
 ブルックスも、障害物回避のロボットはつくったし、ルンバもつくってもうけてますけど、そこから先、人間まで行かなくてもいいけど、犬猫は遠いぞというのがあって。AIBOみたいに犬や猫の知識を人間が持ってデザインしてつくるより、進化のような形で犬猫のロボットをつくろうとすると、やっぱりブルックスの生きているうちにはできないと思うんですよね、今でもね。
 だから、ディープラーニングというかネットワークの上に記号処理ができるという話でも、人間が進化したようにちょっとずつちょっとずつ何か記号処理の芽が出てこうなっていくということをたどるやり方も、理論的にはあると思うんだけど、それはすごく時間がかかる。
 人間の進化と同じほどかからないかもしれないけど、工学的な積み上げとしてもすごいステップ数が必要なので。幸い、自然言語処理とか記号処理についての知見があるので、それは入れちゃったほうが、多分速い。間違ったもののを入れちゃうどうまくできない危険というのは確かにあるので、そこは慎重にやらないといけないけど。入れないと、工学的にはそんなに短い時間ではできないんじゃないかなというふうに思っている。だから、やっぱり、当たり前ですけど、ボトムアップとトップダウンの融合、上と下からやって真ん中でぶつけましょうというのが妥当かなと。
【――】 ボトムアップ派のなかには、上のほうだけ切り出すのはそもそも原理的に不可能、あるいはそれではうまくいかないということを言う人もいるかと思いますが……。
【松原】 いますいます、もちろんいます。
【――】 そうではないだろうと。
【松原】 そうではないだろう、たしかにさっき言ったように、間違いが入る危険はあるんだけど、正しいこともあるはずなんで、そこら辺は試行錯誤で入れてったほうが絶対よい。
【――】 感覚的にも、いままでの研究の経験からしても、ある程度高次の能力だけを切り出すことは可能だと。
【松原】 はい。適切な例示かどうかはわからないけれども、人間、母国語というのは小さいころいろいろな人と話したりして、ボトムアップに何気なく学ぶ。でも、ある程度の年になってから外国語を学ぶときは、文法や単語といった概念を使って学習するじゃないですか。もちろん、英語も2、3歳のときに母国語と同じように学習したほうが発音はよくなるとよく言うけど、でも、ある程度の年になると、外からそういう構造を入れたほうが、外国語ができるようになるというのがあるわけですから。
 それと同じかなと思うんですね、機械に何かを持たせるというときに。構造がわかっているのならば、構造がボトムアップで創発されるのを待ってるよりは、入れちゃったほうがいいんじゃないかと。
【――】 その話とも少し関係しますけれども、ディープラーニング的な手法だと、学習した結果何が起こっているのかよくわからないと言われます。インプットとアウトプットの関係は適切なのだけれども、そのメカニズムを人間が理解するのが非常に難しいと。いまのお話しによれば、すべてがそうなわけではなくて、とくに高次の知的能力に関しては、何が起こっているのかを人間がある程度理解できる領域があるということでしょうか。
【松原】 そうですね。人間が記号推論をする理由は幾つかあると思うのだけど、1つには納得というのがある。人に対して言葉で説明して納得させないと社会が動かないというときには、自分が頭の中で思いついた結果を人に対して納得させるために、やはり言葉、記号のレベルで説明するわけですよね。
 それと同じように、ディープラーニングだけでは厳しくて。あと、僕以外の人も言っているけど、ディープラーニングが答えを出した過程をそのまま説明する必要はない。そのままというのが必ずしも人間にとって納得しやすいわけではない。
 後理屈でいいと思うんですよね。人間はかなりの部分、後理屈で、自分が思いついた結果が正しいことを説明する。自分自身がどうしてそれにたどり着いたかほんとうによくわかってない場合もあるだろうし、わかっていたとしても、それをそのまま説明したからといって、人にわかりやすく納得してもらえるかというのがあって。それよりは、心地よいと言うと言い過ぎかもしれないですけど、人に納得される説明をする。
 だから、多かれ少なかれそういう後理屈で人を納得させるという説明は、人間は子供のころからずっとやっているからなれているというのがあるし、そういう能力があるんです。ディープラーニングが可視化してその過程を見せるというよりは、後理屈のほうをそれこそ記号推論か何かで上に乗せて、その能力がある程度ものになればよい。答えはディープラーニングで出しているけど、説明は記号推論でやっていると。それは人間もそうじゃないかという気はします。

汎用人工知能の可能性

【――】 今までの話とも関係するのですが、第2次ブーム期に哲学者がいろいろ議論をしていたときには、汎用人工知能、一般的な高い知能を持った、SF的な人工知能ができるかできないかを問題にしていました。その点に関しては、現在ではどのくらい展望が変わってきているのでしょうか。いま実際にあるものは、ディープラーニングにせよ、それなりに領域を限定されているわけですけれども。
【松原】 2回目のブームよりは、汎用人工知能がそれなりに、全くの絵空事ではなくなって、それなりの実現可能性を持つプロジェクトも日本国内にも海外にも幾つもあるのですけれども。正直言って、こうつくればできるという方法論はまだ誰も見出せていないという意味においては、同じだと思います。
 だけど、ディープラーニングを含めて、持っている道具が随分便利になったので。昔はそれこそ何もないのにやろうとして、それこそSF的な話しかできなかった。いまは例えば具体的な方法論のよしあしを一応は議論できるようになった。例えば、脳のコネクトーム、生物の脳の配線図を全部見出すという脳科学がある。線虫の脳の配線図がわかって、それをシミュレーションできれば、線虫の脳はほぼシミュレーションできたことになるので、その線虫がそれなりに汎用性の知能を持っているとすれば、それでやる。
 いつか人間でそれができると言っている脳科学者もいるので、もし人間のコネクトームができれば、それをコンピューターに乗せれば、人間の知能は汎用性を持っているんだから、AGIができる。2回目のブームのときには全くの絵空事だったと思うんだけど、脳科学も進んだし、コンピューターの性能も上がったので、全くの絵空事ではない。僕自身はまだかなり先が長いと思いますけどね、人間の全脳シミュレーションは。一部の脳科学者が言うほど、そんな楽観的ではないと思うものの、一応、説としては言えるぐらいにはなってきたと。
 あと、もう抽象化したレベルで人間の脳をモデル化するアプローチもある。それはさっきの議論でいうと、コネクトームというのがボトムアップで全てやるぞという話だけど、これはトップダウンに脳科学でわかっていることは入れようよということですよね。AGIの人たちはモデルの正当性を盛んに議論しているのだけど、そういうのが一応議論できるレベルには来たということだと思うんですよね。
 でも、もともとAIというのはAGIを目指していた。どこかに書いたけど、AGIという言い方にやや違和感があるのは、AIはもともとAGIであったはずだから。AGI、汎用性の知能というのは実現できないから、便宜的にチェスを解くぞとか自然言語処理やるぞとか言っているのだけど、人間のできる知能は全部やろうというのが、AIの最初からの夢だし、それが変わったわけじゃないとは思うわけです。でも、逆に言うと、区別するぐらいに一応仮説が言えるような段階にはなってきた。
【――】 ある意味で、AGIはちょっと棚上げにして、話を限定したことで、ディープラーニングが威力を発揮する画像診断なり、自動運転なり何なりで大きな成果が上がっている側面もありますね。
【松原】 そう。だから、ある段階でAGIを目指すんだけど、僕はもうしばらくは特定の、自動運転なら自動運転、小説を書くなら小説を書くという個別の問題を解くという段階かなと思って。そういうのをもう少し積み上げてから、最終的にAGIに行ったほうがいいと、僕は個人的には思っているんですけどね。
【――】 ある意味で、それがほんとうのグランドチャレンジ、最後のグランドチャレンジになっていくと。
【松原】 そうですね。最後の。

哲学者の役割

【――】 第3次ブームの現在、哲学者がどういう貢献をなし得るか、あるいは哲学的、原理的な問題はいまどのくらい論じる余地があるのか、そういったところについて、もう少し伺いたいのですが。
【松原】 さっきのフレーム問題の話で、土屋さんや黒崎さんがまだ原理的にはフレーム問題は全く解けていないというのはそのとおりだと思う。そういうことを言ってほしいというのはありますね。ディープラーニングをやっている人たちが「こんなの解けてるんだよ」と言ったら、「君たちは何をもって解けてると言っているのか」と問うような。
 あと、例えば、心を持てるのかとか。もちろん2回目のブームのときにも、心とか、感性とか感情とかを持てるのかという議論はされてきたんのだけれども。当時はAIのほうがトイプログラムで何もできなかったので、もうSFの問題として原理的にはということだったのだけど、いまは例えば感情のモデルとか、あるいはペッパーがそれなりに感情をもつだとか言っているわけですよね。まだレベルは低いけれども。
 あと、AIが進んだだけじゃなくて、脳科学も進んだ。例えば意識について言うと、トノーニの統合情報理論。要するに、ある程度複雑な情報処理になると意識が生まれるという。僕、彼の説明というのはそれなりに納得できるんですけれど。そういうのが出てきたので、トノーニの理論が正しいとすると、いまのAIに意識がないのは、要するに個別の問題で単純な1足す2とかだけをやっているからであって、それこそたくさんのことを、それこそ仕事もするけどプライベートのことも考え、何とかも考えとかいうことをAIにやらせると、それをコントロールするために人間でいう意識みたいなものが生じることがあるかもしれない。
 だから、意識を持てるかといったときの材料がもう少しあると思うのね。その延長線上でAIが意識を持つ可能性の是非について議論するというようなことはぜひやってほしい。そういう意味では、問題としては同じかもしれないけれども、当時よりはもう少しリアルな材料があるので、もう少し深みのある議論ができるんじゃないかなというふうに思っていますけどね。

おすすめの本

【――】 最後に、人工知能について考えるときに参照すべき文献を紹介していただけますでしょうか。
【松原】 哲学かどうかはともかくとして、『ゲーデル・エッシャー・バッハ』は大好きです。まあ、あれ一種、哲学ですかね。要するに知性と再帰性というのが非常に大事。あの本に僕はすごく感動して、いまでもたまに読み直しますね。やはりホフスタッターはすごいなと思う。
 あと、ホフスタッターの本はたくさんあるけど、『マインズ・アイ』。あれはAIUEOでも読んだんですけど、あれはすごいいと思いました。収録論文全てに感心したわけではないけど、かなりいいのがたくさんある。スタニスラフ・レムらのSFも入ってるし。あの選び方といい、あれはほんとうにいまでも色あせてないと思うんですけど、絶版ですね。個人的には、いい編集者がいれば、あれはこのAIブームのいま、「AIの原点を問い直す」といったキャッチをつけて出せば、いまでも色あせてないと思うんです。
【――】 内容的にも十分いまでも考えるヒントになると。
【松原】 そう。昔はみんなSFごとだと思って見たけど、人間の頭の中のソフトウエアを何かにコピーするなんていう話は『マインズ・アイ』に出てるんですよね。だから、『マインズ・アイ』を読んだことがあると、あ、何だ、『トランセンデンス』って二番煎じじゃないかとか思うわけですけど。
 あと、デネットの論文「コグニティブ・ホイール」も、私がフレーム問題やっていたということもありますけどね。そこら辺かな。好きなというか、大事だと思うものは。

(終)

2019年3月4日、東京大学駒場キャンパスにて
聞き手:鈴木貴之

その1に戻る
その2に戻る