尾形哲也先生インタビュー(その4)

共通の目標

【ーー】  尾形先生の感覚では、結局、みんな目指しているところは同じだということでしょうか。どこから始めるかの違いで。
【尾形】  そう思っています。もちろん工学なので、目の前のゴールはクリアにある場合が多いです。画像の認識率を上げたいという課題設定をすれば、ひたすら性能を上げようとすることになる。そうすると人間の仕組みなどはどうでもよくなるでしょう。翻訳でも、対訳文があるので、この対訳に合うようにしたいというゴールを与えてしまうと、実世界での文章の意味などどうでも良くなるでしょう。通常、通信速度を上げたい、エネルギー効率を上げたいとか、工学は数字を追うものですから、みなが哲学的な議論を意識するかというと分からない。ただ、知能という問題を究極的に考えれば、異領域であってもすごく似てくるような気がしています。
 完全に個人的な体験ですが、京大の知能情報学の先生方と最初に面談をした時の話です。面談前は、それまで比較的評価が得られていたヒューマン・ロボット・インタラクション研究の話題で無難にまとめようと思っていました。ところが私の過去の論文を読まれていたであろう、画像処理の先生から、最初に「君の問題意識というのは、まさに記号、表象の問題だよね」と質問されて、その後、脳科学の先生が、この最初の質問を受けて拡張された質問をされて、今度は生物の先生、続いて計算理論の先生にも、「自然言語とプログラム言語の違いというところから、そういう問題に興味がある」ということで質問がどんどん続いて(笑)。みなさん専門の分野が全然違うのですが、「知能情報学」という専攻で集まっておられる先生方が、ほぼ同じ問題意識を持っておられた。それをその場で先生方もお互いに気づかれたみたいで、すごく盛り上がって、僕が無視されそうになって慌てて議論に参加した、ということがありました。(笑)やはり、ある分野を徹底的に突き詰めた方は、同じ問題意識に行き着くのだと思って、ちょっと感動したのを覚えています。
 ただ、現在の若い研究者たちは、短期間で論文を書かなきゃいけない、とにかく数字を残さないといけないというのがあるので、こういう問題意識に気づいていても踏み込めないということがあります。私は、超ニッチ、誰にも見られていないような分野でコツコツやって、ディープラーニング以前でも認めてくれる先生が一部にいらっしゃったので、何とかなったというのが幸せでした(「なんでニューラルネットワークなんか使っているの?」と驚かれたことは沢山ありましたが…)。いまはそういう余裕が若い方にないように見えます。とにかくディープラーニングで、大型計算機で、大量データを集めてきて、SOTA (State of the Art)を出すべく世界で競争している。こういう状況だと、なかなかいまここで話しているような問題を考える余裕がないな、という心配があります。
【ーー】  いままでのインタビューでお話を伺った方からも似たようなことは伺って、80年代ぐらいからずっと研究されている方は、若い頃は哲学者とも議論をしてという話をされていて、いまはそういう場がなくなっているという話はいろいろな方がおっしゃっていました。もちろん、人工知能研究がディシプリンとして確立されているので、目の前にやるべきことがたくさんあるということはあると思うのですけれども、最終的には、こういったもうちょっと大きな問題関心というのもまた重要になってくるとお考えでしょうか。
【尾形】  そう思いますね。すごい認識率が出るけどとんでもない間違いが起こるとか、すごい翻訳をやっているように見えるけれども実は違うとか。実は、一部の先生たちは、トップでやっていればやっているほど哲学的な思考の必要性を感じている。改めて、いまの若い人たちは僕らのときより、踏み込みづらくなっている。とにかく数字で評価されるので、どのカンファレンスに通ったとか、どれだけいっぱい引用されたとか、そういうことが主目的になっちゃう。
 もちろんこれらの基準も大事なことではあるのですが、あるレベルでの哲学が大事、みながじつは持っているコンセンサスに気づくということは絶対来ると思っています。発達ロボティクスとかも、初めから、認知心理学の先生とか哲学の先生に教えていただいて、その概念にヒントを得て構成してきたという歴史がそもそもあるので。
 いま、深層学習の領域では、とにかく多くのネットワーク構造を試す。非常に大きなモデルを持ってきて、過去の試行事例をベースに考えられるものをとにかく多く試して、これはよかった、これはだめでした、とかいう研究が多い。でも実は、既に指針になる研究分野は横にある、人文社会系の先生方は大事な指針を示してくれている、という気が個人的にはしています。そういう研究をフォローしつつ、モデルを構築する、ランダムサーチじゃないほうがいいのではないか、ということを思っています。
【ーー】  そこはそろそろ煮詰まってきて、ほかの分野のいろいろな知見をあらためて参照して、新しい方向性を探るというようなことが出てくるのでしょうか。
【尾形】  そう思います。今のこういう議論はとても大事だと思います。またちょっと矛盾するのですが、工学ではすごいパフォーマンスが出たモデルが出てくると、それにみんなが倣う。なので、自分としては、自分のやり方で、まずそれなりのパフォーマンスを見せて、その中身、これは普通のディープラーニングの使い方(最適化)と違うなと気づいてもらえると、そのバックグラウンドにある考え方を意識してもらえると思っています。そういう意味で企業と共同してデモをやるのは、もちろん役に立ってほしい気持ちもありますが、そういうメッセージもあります。
 いま、ムーンショットという大型の国のプロジェクトに参加させて頂いています。我々のプロジェクトの目標は、人のそばで長期に共生できるロボットを2050年までに開発することです。このプロジェクトに山下祐一さん、谷淳さんのところで研究し、今、予測符号化の理論で「精神障害のモデル」を研究されている方ですが、その山下さんに参加していただきました。役に立つロボットを開発する話と直接関係はしないです。でも、山下さんが考える視点を知ることが重要だという考えからです。
 もっと広く多様な研究分野、人文社会系の先生方にも参加していただきたいです。AI(知能)の設計だけでなく、人間と違う存在が社会的にどう受け入れられるか、ELSIや社会受容性の視点など人文社会系の知見は重要です。システムの性能を追い求めるだけだと多分駄目なんじゃないかなと思っています。

人文科学者・若手研究者への期待

【ーー】  いまのお話は事前に用意していた質問とも関係します。ディープラーニングを中心に、個々の課題に関しては高いパフォーマンスが出るようになっているAI研究に対して、人文社会系の研究者はどういう貢献ができるか、あるいはどういうことが期待できるかということです。もちろん倫理的な問題とか、法的な問題に関しては、関連する人たちが駆り出されるわけですけれども、それを超えた形、それ以外の形で、どう貢献できるのだろうというのは、人工知能研究自体がかなりテクニカルになってきている現状だと、人文科学系の研究者からしても難しいところではあります。
【尾形】  でもやはり、いまのような議論、自己や他者の議論とか、言語の話もそうですけど、そういうことがどういうふうに議論されてきたかを知ること自体は、やはり非常に大事だと思っています。私は、谷さんから最初にフッサールやメルロ=ポンティの話をされても正直分からなかった。でも、神経回路モデルがそういう議論と、ある次元で対応することを示していただいた。谷さんは哲学をやるための題材というか、手法にロボットを使っていると思っています。理研で谷チームにいたときに、「これは絶対役に立ちます」と主張したのですが、「それは尾形君に任せた。」と言われました(笑)。ただ、役に立つモデルを作ろうというときに、特に哲学につなぐというモチベーションがなかったとしても、AIとロボットは、結局そういう問題を扱うことになる。そうすると、数字だけを追いかけてはいけないなと、やはり思うのです。
 性能評価基準を作ってしまったときに、それに縛られてしまって、何か大事なことが抜けちゃう。そういうことに気づけるだけでも随分違います。また出来上がったモデルについて、哲学者の方にいろいろと批評していただくのも大事なんじゃないかと思っています。
【ーー】  そうですね。両方向の貢献、生かし方はあるのかなと思います。実際、私も自分のいまのプロジェクトで、ディープラーニングを中心に、いまの人工知能についていろいろ勉強しているのですが、人間の心のモデルとしても、ひょっとしたらこれが重要なモデルになるかもしれないと思うことがあったり、あるいは逆に、これはちょっと人間の脳のモデルではないよなと思うようなときがあったりします。
 哲学者がやるようなレベルで、非常に抽象的に理論的なモデルを考える上でも、哲学者だけだと思い至らない道具立ては当然あるので、すごく参考になるところはありますし、逆に哲学者がやっているような話をきちんとモデル化したらこうなるんだ、あるいは数学的にモデル化したらこうなるんだということを実際にやってもらえると、哲学者が哲学理論としてやっていることはどのぐらい意味があるのか、中身があるのかを、チェックしてもらえるというところもあると思います。
【尾形】  無理やり計算機内のモデルにしちゃうと駄目です。哲学者が主張されている言葉を表面的に捉えて、そういうブロック図をひたすら積み重ねて作る。そういうのは多分駄目。真意をうまく捉える必要がある。
【ーー】  そうですね。俺が言いたいのはそういうことじゃないんだ、というようなやりとりを繰り返していく必要があるのでしょうね。
【尾形】  昔のシンボリックな人工知能は、言葉で説明されるとその説明をそのままプログラムにしようとする。だけど、多分、哲学者が主張されていることは、確かに言葉では説明しているけど違うのだろうなと思っています。言葉という道具立てで言わざるを得ないし、そこにもちろん厳密性を求めて言われているのですが、その指し示すところは、そのまま記述はできない抽象概念であることを意識するべきだと思うのです。例えば、記号論の話でも、パースみたいに、記号がダイナミックに意味合いが変わっていく現象が重要だとするならば、それを手で書いちゃうと多分駄目。ダイナミックにシンボルと実世界との関係が変わるような仕組みが、例えば神経回路でどうやって創発されるのか、そういうところが面白い。ヒントや枠組みを哲学などの思想から与えていただいたときに、それを具現化する我々が、哲学をある程度解釈できるようになってないと駄目なのだろうなと思っています。
【ーー】  今日伺った内容からすると、やはり身体性だとか、環境とのインタラクションだとか、あるいは記号的なレベルがどう生まれてくるのかとか、根本的な問題がずっと残っている、30年、40年ずっと続いている問題はまだまだある感じなので、その辺に関しては、まだいろいろと貢献の余地があるのだろうと思います。
【尾形】  私が生きているうちに解決するとは思っていません。シンギュラリティーとか聞いても、それどころじゃないぞと。
【ーー】  まだまだその前にやることが…
【尾形】  いくらでもあるというイメージです。

お薦めの文献

【ーー】  最後に、人工知能に関する原理的・理論的な問題を考える上で参考やヒントになるような文献だとか、面白い文献があれば教えていただけますでしょうか。
【尾形】  谷淳さんの充実した本があります。Exploring Robotic Minds。谷さんの一連の研究の紹介を通して、ダイナミカルシステムとして、認知、心の議論の可能性が広く書いてあるという本です。英語ですし、値段も高いですが。
 最近だと、乾先生が書かれている『脳の大統一理論:自由エネルギー原理とは何か』、『自由エネルギー原理入門:知覚・行動・コミュニケーションの計算理論』です。乾先生の話はAIそのものが出てくるわけではないですけども、是非お勧めしたい。
 津田一郎先生の『心はすべて数学である』とか、ちょこちょこ好きな本はあります。ただ自分は最近、本を読む時間がなくて、あまり格好いいことは言えないです。すみません。
【ーー】  谷先生のアイデアだとか、あるいは自由エネルギー原理だとか、このあたりが、ディープラーニングを超えて、さらにAI研究を進めていくためには、重要なヒントになるだろうと。
【尾形】  そうですね。これを実装する力がある人にこそ読んでほしいですね。大きいシステムを作るときに、既存のモデルをダウンロードして試すのではなくて、その原理を見直して、組み直してもらう。そのときに、ディープラーニングよりはるか以前の重要な話が沢山ある。是非見ていただければと。
【ーー】  そのアイデアをうまく、いまのディープラーニングに融合していく。そこにはかなり大きい仕事をこれからやれる余地があると。
【尾形】  と思いますね。
【ーー】  若い研究者にはぜひ、そういったところも開拓してほしいと。
【尾形】  はい、私も負けずに、しばらく頑張りますが。(笑)そうですね。いま言ったような哲学的な話というか、みんながどういう歴史を持って、こんなところにたどり着いたのだろうという話まで、若い人たちと共有できる、教えてもらえるようになると楽しいなと思っています。
【ーー】  どうもありがとうございます。若い研究者に対するメッセージとしても、すばらしいお言葉だと思います。今日は長時間、どうもありがとうございました。

2021年12月24日Zoomによるオンラインインタビュー
聞き手:鈴木貴之

その1
その2
その3