小野哲雄先生インタビュー(その3)

エージェントの重要性

【−-】  今の事例とも関係して、HAIに関して一つ伺いたいことがあります。我々の研究プロジェクトでも、自律的な人間と同じような知能を創るという古典的な人工知能のプロジェクトと、そうではなくて、人間が道具として使うものとしてのAIの活用を目指すというのを区別して、むしろ後者のほうが少なくとも短期的には有用だろうというようなことはよく議論をします。そのときに、単純に道具として使うというのとエージェント対エージェントとして関わるというのはやや違うと思うのですが、そこで単なる道具ではなくて、AIあるいはロボットもエージェントという形を取るというのは、いろいろな面で有用になってくるとお考えでしょうか。
【小野】  僕はそう思いますね。例えば、「心の理論」の研究とか、ミラーニューロンに関する研究もインパクトがあったのですが、あと、擬人化の話も関係しますが、対象となるロボットやエージェントがある種のエージェンシーを持っていることが人との円滑なインタラクションを支えているということは確かだと思うんですね。人と人が話すようにエージェントやロボットのような人工物がインタラクションできればスムーズに使えるということは一つ言えると思います。ただ、難しいのは、HAIの研究で「適応ギャップ」とか「不気味の谷」みたいなことがよく言われます。外見はすごく人間らしいのだけど、人間の言葉は分からないし、何も理解できないと、急激にブレークダウンしてしまうということはよくあります。だから、単に表面的に人工物にエージェンシーを付与するだけでもよくないし、そこは難しいところですね。
【−-】  むしろ、これからいろいろなタイプのHAIを調べていって、どういう用途だったらどういった形がいいのかというのが今後見えてくるという感じでしょうか。
【小野】  はい。もっと言うと、もしかしたらロボットとかエージェントって対象物じゃなくてもいいのではないかというふうに、僕は思うのですね。僕は「環境知能」と言っているのですが、環境がナビゲートしてくれたり、もうちょっと抽象的に言うと、「場」みたいなものが人間を賢くしてくれたりサポートしてくれればいいので。ですから、工学のほうだとIoTといっていろいろなところにセンサーやアクチュエーターがつく環境ができてくると思いますが、それができたときに、環境知能システム、僕のためにサポートしてくれる環境が僕に移動してついてきてくれるというような形で、ロボットやエージェントじゃなくても、そういう知的な環境が人間をサポートしてくれてもいいのかなあというふうに、僕は思っています。
【−-】  そういう意味では、人間が頭の中で全部考えるわけではなくて、むしろいろいろな環境とのインタラクションでいろいろな知的な課題をやっていくというのが基本的な考え方で、その中に特に人工エージェントと人間がインタラクションするというのが一つのバリエーションとしてあるんだという感じでしょうか。
【小野】  まったくおっしゃるとおりです。人間が頭の中で考えられることは、たかがしれていると僕は思っています。
【−-】  そうすると、エージェントという形を取ったほうがいいのはどういう場合なのかというのをこれから具体的に見ていくことになるでしょうか。
【小野】  そうですね。これは鈴木先生にお伺いしたいことになってしまうのですが、「インタラクションの志向性」といいますか、ロボットやエージェントという対象がいることが促進する効果というか、対象がいないと成立しないことに興味があります。
 ちょっと話が飛びますけど、青山学院大の鈴木宏昭先生の「プロジェクション・サイエンス」というプロジェクトにもちょっと関わらせていただいているのですが、今のお話はプロジェクション・サイエンスにも関わってきて、いわゆる外界というか、外にあるものに対する志向性、話が長くなっちゃうのでここでは端折ってしまいますが、何で外にある対象に意味を付与するのか。日本語だと「投射」と鈴木さんはおっしゃっていますが、そのプロセスが分かれば、今の、なぜロボットが必要か、なぜエージェントが必要かというのはインタラクションの志向性に含まれてくるのかなあというふうには考えていますが、まだ全然分かっていません。
【−-】  その点に関しては、私も明確な考えがあるわけではありませんが、ただ、人間は、人間でない、あるいはエージェントでないものもエージェントであるかのように捉える「心の理論」の働きがかなり強くて、普通のコンピューターでさえ、ちょっと思いどおりに動かないと、こいつは俺に悪意を持っているんじゃないかなどと思ってしまいます。
【小野】  そこなんですよ。結局、HAIとかHRIのポイントとなるところはそこで、擬人化するのですけど、先ほどのプロジェクション・サイエンスの話で言うと、なぜその対象に対してアニマシーというかエージェンシーを投射(プロジェクション)するのか、その対象にそういう意味を付与するのかというのは、考えてみると実はよく分からないのですね。先ほどの青学の鈴木先生ともいろいろワークショップなどをやったりしていたのですが、哲学の大森荘蔵先生とか暗黙知のマイケル・ポランニーとかも同じような興味を持っていたようです。今、計算モデルとして一番近いのが、プレディクティブ・コーディングという、まず環境を予測して、返ってきたフィードバックを使って、また環境を予測してという、ああいうトップダウンな予測が、もしかしたらプロジェクションに近いのかなあというような議論は鈴木さんともしているのですが、分からないですね。
 プロジェクション・サイエンスというのは、自分の意味を対象に付与する。僕なんかはHAIでやっていて、人工物を擬人化するのというのは、ある種、頭の中で持っているエージェンシーを「飛ばす」というか、エージェンシーを人工物に付与するみたいなことをやっているのかなと。これは、トップダウンな一つのプレディクションといえばプレディクションなのかなあというのは思っているのですが、逆に言うと、それぐらいしか計算モデルに乗りそうなアイデアがないところかなあと。
【−-】  その辺が見えてくると、エージェントを導入することがどのくらいうまくいくか、いかないかというようなことも、より具体的に見えてくる可能性がありますね。
【小野】  おっしゃるとおりですね。「イマジナリーフレンド」、「イマジナリーコンパニオン」という研究もあって、子供のときによく現れると言われるのですが、子供が誰かと遊んでいるように振る舞うのですけど、実際には誰もいない。頭の中でつくり上げた友達を何かに投射(プロジェクション)するのですが、実際はそこに人はいないという現象があるのですね。そういう現象は脳科学の方もおっしゃっていて、ある部位を刺激するとそういう他者が現れるというようなことを言っている方がいたり、あと、僕もちょっと調べたのですけど、「サードマン現象」という、雪山で遭難しそうになったり、9.11のテロでビルが崩れて逃げようとしていたときに、誰かが「おまえは上に逃げずに下に行くのだ」とか言ったので助かったというような、後づけ的なところもあるのかもしれないのですが、架空の誰かが現れるという研究もあるようですので、先ほどお話ししたエージェントやロボットのようなものがインタラクションの対象として必要なのか、もしくは仮想的なものであっても大丈夫なのかというのは、非常に興味深い話かなというふうに思います。

ナッジエージェント

【−-】  HAI関連の研究として、最近、「ナッジエージェント」の研究をいろいろされていますが、それに関してもぜひ伺いたいと思います。ナッジエージェントも、HAIの一つのバリエーションということになるかと思います。ナッジはいろいろあるわけですが、その中で、人工エージェントを取り込んだナッジが特に有効になってくる場面というのはありそうだとお考えでしょうか。
【小野】  そうですね。今、結構言われているのは、「パーソナルAIエージェント」(PAIA)ということをおっしゃっている人がいて、パーソナルAIエージェントの一つとしては、個人情報を安全にうまく使って、人をサポートしてくれるものを作ろうという研究があるのですが、僕はパーソナルAIエージェントの一つがナッジエージェントだというふうに思っていて。僕の主張を簡潔に表すと、「パーソナルAIエージェント=ナッジエージェント+ブーストエージェント」となります。ナッジというのは、ご存じの方は多いと思うのですが、ある種、人間をナビゲートして、そっとひじで突いて良いほうに導いてくれるのですけど、ブーストのほうは人間によく考えるように促してくれるというものです。ナッジとブーストの機能を統合すると、それがパーソナルAIエージェントになるのじゃないかなというふうに考えていて、それも少しずつ研究を進めているところです。
【−-】  ナッジテクノロジーに関しては、AIを使う、使わないにかかわらず、どこまで踏み込むかということは常に議論になりますが、その点に関しては、イメージはお持ちでしょうか。
【小野】  ナッジエージェントを使って人を悪いほうに導いちゃったらどうするのですかというようなことを、よく聞かれるのですけど、僕らがよく言うのは、我々の考えているナッジエージェントというのは、行動経済学ですと「リバタリアンパターナリズム」と言うのでしょうか、何か支援はするけど、最終的に意思決定するのは、その個人であり、人間だよということです。だから、ナッジをやるにしてもその人の判断というか、意思決定が最終的に反映されるような形にしようということで、ブーストの機能も付け加えてやっているのですね。つまり、何でもナビゲートすれば終わりではなくて、個人が意思決定するのを支援するエージェントでもあってほしいという立場を取っています。
【−-】  そういう意味では、お勧め程度であったり、あるいは、お勧めさえしないで、ちょっと立ち止まってもうちょっと考えてくださいぐらいであったり、かなりソフトな感じで支援をするということですね。
【小野】  おっしゃるとおりですね。ブーストエージェントもコンセプトビデオがあります。論文とビデオは以下のリンクにありますので、興味のある方はご覧ください。

論文へのリンク

もしくは、ビデオだけだと以下にもあります。

ビデオへのリンク

【−-】  ナッジエージェントに関しては、すでに試されているものもふくめて、特にこういう場面ではなじみがいいというものはあるでしょうか。
【小野】  そうですね。前にお話ししたHAIの研究とも関連するのですが、我々は意思が弱いというか、ある面、環境に流されるところがあります。文脈に適合するという意味では、それもある種の「知能」だと思うのですが、ただ、やろうとしたことができなかったり、これをこの日までにやろうと思ってもなかなかできない。最初は自分で意思決定をするのですが、これをいつまでにやるとか、もしくは体重を減らすとかいうようなこともそうですが、一度そういう意思決定をしたら、環境でそれをナビゲートしてあげてもいいんじゃないかなと思うのですね。自分が意思決定したことに対して、環境でサポートしてあげる。ですから、カロリーを落とすような食事に目を向けさせたり、ナッジを使ってカロリーの低い食べ物を食べるように促したりというのは、悪いことではないのじゃないかなあというふうに思って。これも、先ほどお話ししましたが、最初にその人の意思決定があって、その後にナッジエージェントが環境をつくってくれるというものであれば、ナッジの悪用にもならないし、その人の意思決定を重視している立場も守られるのじゃないかなと思います。このプロセスを映像化したナッジエージェントのコンセプトビデオと、それを説明した論文も以下のリンクにありますので、興味のある方は参照してください。

[ビデオ]

[論文]

【−-】  本人が目標を設定して、本人自身の意思の弱さでそれが失敗してしまうというタイプの事例に使っていくのが、差し当たりは一番いいだろうと。
【小野】  はい。皆さん、ナッジをいろいろなふうに使おうとしていて、IT系でもグーグルなんかはかなり取り入れようとしているんですね。ですから、皆さん気づかないうちに、グーグルのアプリケーションなどですでにナッジを使っているのではないかと思います。いろいろところにナッジが使われているのですが、僕らの違いは、一つは先ほどお話ししたユーザーの意思決定をまず優先するということ、もう一つは、ナッジエージェントと言うぐらいですので、エージェンシーをそこに持ち込みたいということです。グーグルなんかはエージェンシーみたいなものは当然持ち込まないのですが、エージェンシーを持ち込むことで、対話性、インタラクティビティが生じる。僕らは、エージェンシーを用いることによる利点というのを活用したいなあというふうに思っています。
【−-】  単純に誘導的なものとはちょっと違う形で、むしろ対話的に、変更を促すというか、修正を促すというイメージですね。
【小野】  そうですね。そこでも、先ほどお話ししたブーストみたいな、いろんな立場の意見を提案してくれるというエージェントも出てくるのですが、そのベースにあるのは、HAIをやってきたからかもしれないのですが、人間は対話やインタラクションを求めるという考えです。社会性を切り離していくとあまり良い方向には向かわないのではないかと、漠然と考えています。ギリシャ時代からずっと対話は人間にとって重要で、もうちょっとアフェクティブな部分でも、共感なども関わってくると思うので、僕らは基本的にインタラクションとかインタラクティビティーみたいのを重視してやっていきたいなというふうに思っています。
【−-】  このあたりの問題は、ナッジに関する哲学的な議論をしていても出てくる話で、サンスティーンなどは功利主義的な考え方を持っていて、よい結果が得られればいいのだという感じで、手段はあまり問わない。ナッジを使って良い結果が得られるのなら誘導してあげても問題はないのだという考え方を基本的には取っているように見えますが、それには賛同しない人もいて、そうではなくて、あくまでも本人が納得して、最終的には自分で決定して選択しないといけないんだと。後者の考え方からすると、見えない誘導のようなナッジはやはりよくなくて、どちらかというと、口うるさい友人のような感じで説得をしてくるものが好ましいと。
【小野】  僕もおっしゃるとおりだと思っていて。あと、今日は人工知能がテーマですが、今、人工知能で一番ホットな話題は「XAI」(Explainable AI, 説明可能なAI)です。深層学習などでは確かにすごいアウトプットが出てくるのですが、何でそうなるかというのは分からないのですね。パラメーターが数億個あるようなものは人間はほぼ理解できないと思うのですが、その結果を人間が分かるような形で提示しようというのがXAIだと思います。今おっしゃったように、結果がいいからいいじゃないかというのではなくて、最後は人間が判断して、人間が理解した上で決断する、そこは僕もナッジエージェントをやっていて外したくないというのはあって、人工知能の研究の流れの中でも同じ立場の人は多いなというふうに思いました。

その4に続く

その1
その2