小野哲雄先生インタビュー(その2)

ヒューマンエージェントインタラクションの重要性

【−-】  HAI・HRIの話に戻ると、そういった研究を始められた頃、1990年代の後半ぐらいから、完全に自律的なAIを作るよりは、むしろこういった方向のほうが実り多いだろうという感覚は持たれていたのでしょうか。
【小野】  そうですね。面白かったというのはありますね。先ほどお話ししたとおり、人間とかロボットは、閉じた系としてあるのではなくて、環境とのやり取りとか、他者とのやり取り、インタラクションの部分に焦点を当てるというのが面白かったのと、人と他者性を持ったロボットがいると、非常に面白いんです。先ほどの大阪大学の石黒さんなどがよく言うのですけど、なぜロボットの研究をやっているのかと聞かれると、人間のことを知りたいからだと答える方がロボット研究者に結構いらっしゃると。つまり、我々がこんな簡単にできることをなぜロボットはできないんだということから、人間の賢さに気づいたり、逆に、人間がある種の誤り、バイアスみたいなものを持っているというのがロボットの研究から分かったりするということで、ある種、「ロボットは人間の鏡」みたいなもので、HRI・HAIをやることでそれがより顕著になったなと僕は思って、面白かったですね。
【−-】  そういう意味では、純粋に人工知能や自律性のあるロボットを作るというだけではなくて、むしろ人間の心について知るということにも、ずっと関心を持たれていたのでしょうか。
【小野】  そうですね。振り返ってみると、僕は最初に人間に興味があったという気がしますね。人間に興味があったのだけど、先ほどお話しした計算モデルでは証明し切れない部分が出てきて、外界とのインタラクションの中に人間の賢さを見るようになった。だから、真ん中からちょっと外に来て、環境とのインタラクション、他者とのインタラクションに興味が移っていったというところがあるかと思います。
【−-】  ご著書の『マインドインタラクション』を拝見すると、心理学、認知科学の研究を多く参照されていて、それらの分野ともかなり近いようなところでも研究されています。そのようなことについても、元から関心を持たれていたのでしょうか。
【小野】  関心を持っていたというのは確かだと思うのですけど、さらに、『マインドインタラクション』を一緒に書いている山田誠二さんもそうなのですが、結構、いわゆる従来からのAI研究に対する行き詰まりとかフラストレーションが『マインドインタラクション』みたいな本に表れたのかなというふうに思っていて。山田さんがおっしゃるには、マルチエージェントとか適応エージェントのようなものを山田さんも考えていたのですけど、マルチエージェントも計算機の中で多数のエージェントがインタラクションして何らかのパフォーマンスを出すというような研究ばかりだと。ちょっと言い方は難しいのですが、シミュレーションだけですとパラメーターの設定でいかようにも結果が変わってきたり、当たり前なのですが、実世界のなかなか表現し切れないものは取り込めないということがある。ですから、実世界の中でのインタラクションというのを研究としてやりたいと。その中で、『マインドインタラクション』の中にも書きました人間の要素は当然入ってきますし、先ほどお話ししたとおり、そこで人間と人工物がやり取りする中で分かることのほうが大きいのかなあというふうに思いました。
【−-】  そうすると、実際にHAI・HRIの研究をされていて、ちょっとうまくいかないところとかが出てきたときに、隣接分野のいろんな研究が実は関係しているようだということが見えてくるというところもあるわけですね。
【小野】  そうですね。おっしゃるとおりだと思います。HAIとかHRIをやり始めたときに、ロボットをやっていた研究者から言わせると、コントロールできないパラメーターが多過ぎて、曖昧だとか、怪しげだとかいうことはよく言われたのですね。つまり、例えば実験室の中でアーム式のロボットを使って物をつかむというような研究は当然あり得るのですけれども、HAIとかHRIの中ではそういう理想的な環境で実験とかをやっても、あまり意味がないんじゃないかと。もうちょっと自然な環境、日常生活に近い環境で研究をやりたいというふうに思ったのですが、そうすると、先ほどお話ししたパラメーターが多くなってコントロールできないファクターがいろいろ出てくるというのは当然のお話だと思うのですけれども、その辺は認知科学とかの研究でもよく出てくるエスノメソロジーなんかも割とそういう感じかなという気が僕はしています。完全にコントロールされた実験室でパラメーターを絞ってやっても結果は出ると思うのですが、我々はそういうところでずっと生活しているわけではなくて、「人間の賢さ」というのは我々の日常環境の中で出てくるんじゃないのかなあということなのですね。研究としてはコントロールしづらいパラメーターがたくさん入ってくるのですが、でも、そこをやらないと意味がないんじゃないかなというふうに、僕は今も思っていますけど。
【−-】  実際に人間とロボットでインタラクションさせてみることで、見えてなかったパラメーターが見えてくると。
【小野】  はい。ですから、やってみてびっくりしたことが幾つもあって、研究発表したときにレビュアーが面白いと言ってくださったのはその辺りで、頭の中でシミュレーションしてみて、結果はこうだよねと、優秀な方はおっしゃると思うのですが、本当にそうなのかなと思いつつ、実際にやってみると、違うじゃないということが結構あったので、そこが面白かったですね。
【−-】  『マインドインタラクション』は、一般向けということもあるかと思うのですが、具体的なアルゴリズムがどうなるかというよりはむしろ、もっと大きい設計思想がメインになっています。小野先生のご研究としても、ディテールよりも、むしろ、大きな話としてどうインタラクションを考えるかというのは、大きな関心でしょうか。
【小野】  おっしゃるとおりですね。僕は、そっちに興味があるというか、これも言い方が難しいのですけど、夢があるというか、志があるというか、そういう研究だったり、強いメッセージが含まれた研究が割と好きなほうで、そういうのをやりたいなというふうに思って、時にはというか、多くの場合、道を踏み外したりしているのですが、ちょっとインパクトのある面白い研究をやりたいなあって思っているのですね。ある程度方向性が見えると、非常に優秀な研究者はたくさんいるので、できた道を「舗装」してくださる方はいるのかなと。できれば、うまくいってないことが多いのですが、道のないところに道をつくりたいなというか、やぶの中を歩いていくようにやって、そこに何かが見つかれば、その後は誰かが道を舗装してくれるのかなというふうに僕は思ってやってきましたけど。
【−-】  最初の、ある程度切り開いて、めどを立てるところまでが一番面白いところだと。
【小野】  そうだと思うんですね。僕個人はそう思っているので。
【−-】  哲学をやっている人間からすると、当然そういう非常に一般的なレベルに関心があるので、まさに同感ですが、逆に、人工知能研究あるいはロボット工学研究という観点からすると、それだけだと駄目で、実際にいろんな具体例で実装しないといけないというところはなかなか大変かと思います。
【小野】  そうですね。ただ、それもある種の制約ですけど、それぐらい、地に足をつけるというか、グラウンディングさせたほうがいいのかなと。夢とか希望だけでやっていても結局駄目で、それを実世界で確認できるというか、検証できるのがHAIとかHRIのいいところかなというふうにも思うんですね。ですから、現実からは離れないで何か新しいものを見つけられないかというところが、僕は面白かったなと。

ITACOシステム

【−-】  なるほど。実際にHAI・HRIの研究を始められて以来、いろいろと具体的な研究をされていると思うのですが、その中で特に、ご自身で印象深い、あるいは面白いものがもしあれば、幾つか挙げていただけますでしょうか。
【小野】  一番、個人的に面白かったし、今も面白いと思っているのは、初期にITACOシステムというのをやっていて、エージェントという、ある種のキャラクター、ソフトウエアエージェントがいろんなデバイスに乗り移って(「憑依」して)ユーザーをサポートしていくというもので、青森県のイタコさんから名前を取らせていただいたものです。先ほど結構意外な結果が出るということをお話ししましたが、このITACOの研究もそれで、簡単に実験の内容をお話ししますと、ロボットがユーザーの前に突然現れるのですが、ロボットが来て、今、ITACOエージェント(キャラクター)とユーザーがいろいろやり取りして遊んでいるのですけど、コンピューターの上にエージェントがいるのですが、そのエージェントが、エージェント・マイグレーション、つまりロボットのディスプレーに乗り移る(「憑依」する)というのがITACOエージェントのポイントです。遊んでいたキャラクターがロボットに乗り移ると、ロボットが非常に質の悪い合成音声でしゃべるのですが、その音声をユーザーが理解してくださるのです。一方、キャラクターと遊んでいてロボットがやって来るのですけど、キャラクターがエージェント・マイグレーションをしない、つまり乗り移らないでいたときは、ユーザーにはロボットが来たのは分かるのですが、ロボットが発する質の悪い合成音声が聞き取れない、聞いているには聞いているのですけど、意味を理解されないという研究なんですね。2つの条件で何が違うかというと、自分がインタラクションしていたエージェントがロボットに乗り移るか、乗り移らないかだけで、その違いでロボットの質の悪い合成音声を理解できるか、できないかという違いが出てくるというのは、いろんな方にお話ししても、結構示唆的かなあというふうに思っていて。これに関する考察は長くなってしまうといけませんが、ロボットが発する音声を聞くというのは、単に聴覚だけから入ってくる音声を解釈しているのではない、違うファクターが関係しているのだなというようなことを思っていて、これは、「聞く」というと単に音声を受動的に聞いていると思う人が多いと思うのですが、じつは自分から主体的・能動的に聞こうとする要因がおそらく必要で、トップダウンに聞いて解釈しようという動因が必要なのかなというふうに思っていて。これはAAAIというAIの国際会議でも発表したのですけど、その当時、僕は英語が下手だったので、質問の内容が大体6割から7割ぐらい合っていたら「イエス」と言っていたのですが、質問で「おまえはシャーマニズムをやりたいのか」と言われて、「イエス」と言って、質問者にそうか分かったと言われた思い出があるんです。先ほどお話ししたことと関係するのですが、頭の中でシミュレーションして、多分こうだろうと思ってやってみると違う結果が出るというのが、今お話ししたHAI・HRIの面白さかなあというふうには思いますね。ITACOエージェントというのは、そのことを実証的に示した一つの事例かなあというふうに思います。

その3に続く

その1
その2
その4