西垣通先生インタビュー(その1)

西垣先生は、コンピュータ・エンジニアとしてキャリアを出発されたのち、研究者に転じ、工学と人文科学の中間的な立場から、AI論、さらにはより一般的な基礎情報学に関して、ユニークな研究をされてきました。このインタビューでは、西垣先生のキャリアの変遷、第2次人工知能ブームと現在の第3次人工知能ブームに関する西垣先生のお考えなどについてうかがいました。

工学からAI論へ

【――】 西垣先生はエンジニアリングの側からスタートして、人文系に、あるいはその両者の中間的な領域に研究をシフトされた、非常にユニークなキャリアをお持ちなわけですが、まず、そのあたりの経緯や関心の変化についてお話しいただけますでしょうか。
【西垣】 僕とAIとのかかわりということでお話ししますと、日立製作所の研究者だったのですが、1980年から81年ぐらいにかけてアメリカのスタンフォード大学に留学したんです。スタンフォードのコンピュータ科学研究所というのがありまして、客員研究員になったんです。ノルマの職務はほとんどなくて、大学院留学生と同じでしたね。
 当時スタンフォードはAIブームの中心地でした。エキスパートシステムの第一人者であるエドワード・ファイゲンバウム教授がちょうどコンピュータサイエンス学部の学部長さんでしたが、大変人気があって、僕も講義を聞いてみたり、研究会に顔を出してみたりしました。みんな熱に浮かされたようにワイワイガヤガヤやっていて、第2次AIブームの中心に投げ込まれた、そんな感じでした。
 日立の研究所では機械翻訳などを研究していたグループも周囲にいっぱいあったのですが、僕自身の専門はむしろメインフレーム・コンピュータの数学的なモデリングでした。性能や信頼性の計算をして、ハードやソフトをどういう構成にするのがいいのか、というテーマで博士論文を書いていたんです。その博士論文の指導をお願いしていたのが、東大の大須賀節雄先生という方でした。大須賀先生は、駒場の宇宙航空研究所(いまの先端研)の教授で、僕は毎週のように通って指導を受けていました。今もまだ名誉教授で、お元気でいらっしゃいますけど、大須賀先生は数学的なモデリングだけでなくAIの研究に非常に興味を持たれていたんです。その後たしか人工知能学会の会長もされましたが、当時、日本の第一線のAI研究者だったわけですね。
 そんなわけで、AI研究をめぐる雰囲気を感じていたので、アメリカ留学中に自然にAI研究の中枢に触れることができたのです。それが僕とAIとのかかわりの初めでした。
 その後日本に帰ってきてから、有名な第5世代コンピュータ研究開発プロジェクトにしばらく関係しました。このプロジェクトは産官学のメンバーを集めたもので、日立も参加していて、僕はOS屋として入ったのです。大体のことはそのとき勉強したんですね。第5世代コンピュータ研究開発プロジェクトは、当時、日本のAI研究の中心だったわけです。日本の戦後のコンピュータ研究開発にはいろいろなものがありましたが、あれが最大だったと思いますね、規模からいっても。
 ただし、第5世代コンピュータ研究開発プロジェクトにはそれほど長いあいだ参加はしませんでした。工学博士を取得した後、研究所の方針で、工場に出向して別の大規模なソフト開発の仕事に移ったのです。ところが、工場で長時間はたらいているうちに、体を壊しちゃったんですね。椎間板ヘルニアで手術を受けました。これは大きな転機でしたね。このまま自分はメーカーでコンピュータ開発の仕事をつづけるべきかどうかと。
 それで、1980年代の半ばに大学に移ることにしました。明治大学の文系の学部に所属して、プログラミングなんかを教えながら、コンピュータと人間のかかわりを広く考えるようになりました。情報社会論を学ぶために、社会学や哲学を本格的に勉強しはじめたのです。AIというのはその当時第2次ブームで、情報社会論の最大トピックだったんですね。それで、1988年に『AI』という、講談社の現代新書の本を書きました。これが僕の一般向け書物の処女作です。その後もう一冊、1990年に『秘術としてのAI思考』という本を筑摩書房から出版しました。これは今、『思考機械』というタイトルでちくま学芸文庫に入っています。両方ともAI論ですけど、いわゆるAI技術をまとめたというよりも、むしろAIのもつ思想的な文脈というテーマを中心とした本です。
 東大に移っても、それ以来ずっと僕の研究対象は、AI技術というよりはAI論ですね。AI技術の研究開発には、それなりの道具も人間パワーも要る。そういう環境にはいなかった。そのかわり、AIと哲学、社会、人間とのかかわりみたいなことをじっくり考えることが仕事になった。今そこにお持ちの『現代思想』[1987年4月号]の論文もその例です。
【――】 これは初期に書かれた論文ですね。
【西垣】 今申し上げた二冊よりも前、一番最初に書いたものですね。
【――】 僕は1990年代に学部生だったときに、ドレイファスの本などを読んで人工知能の哲学に興味を持ちました。これはそのときに古本で買ったものです。
【西垣】 AI論に関しては、アメリカでは哲学的な論争が昔からいろいろ行われていました。日本でも、人数はアメリカよりずっと少ないですけど、興味をもつ人はいます。まず、純粋にAIを研究開発している理系の人たち、それから、社会学者とか哲学者とかで、AI論をテーマにする文系の学者もある程度はいます。
 ところが、僕のように、理系と文系にまたがってAI論をやるという人間はあまりいないんですね。理系のAI研究者のほうは、テクノロジーの内部にどっぷりつかっている。一方、AIに興味のある哲学者などは、外部にたって遠くからAIというものを眺めている。でも僕の場合は、内側の技術を踏まえつつ、外側からAIのあるべき姿を語るというスタンスです。そういう人間がいてもいいんじゃないかと。
 というのは、工学部の多くのAI研究者というのは、現場を踏んでいるわけではないんですね。何ていうかな、コンピュータ開発の現場にいる工場のプログラマーとかSEとかいう人たちは、もっと泥臭いことをやっているわけです。僕はそういう現場にもいたんですよ。特に日立にいた最後の2年ぐらいは工場で…
【――】 プログラミングを徹夜でやったり?
【西垣】 プログラミングをやったり、デバッグをやったり、めちゃくちゃに泥臭い。AI研究ってピュアな部分もあるけれど、開発された製品は実際に世の中で使われていくわけじゃないですか。実際面から見て、本当にこのAI技術をうまく使うにはどうすればよいか考える、それも大事じゃないかなと思って、仕事をやってきました。それが僕のAIとのかかわりです。

思想としてのAIとその限界

【――】 今お話しいただいたことに関してもう少しうかがいたいのですが、西垣先生のご著書では、コンピュータサイエンスあるいはプログラミングと、狭い意味でのAIとは必ずしもイコールではないということを強調されています。
【西垣】 たとえばビッグデータの処理は、普通のコンピュータ処理が大部分ですから、いま騒がれている深層学習みたいな、狭い意味のAIの処理だけじゃない。ところが一方、より広い意味でいうと、AIの考え方というのは、普通のコンピュータ処理の核心だとも言えるんです。つまり、データの論理的、形式的な処理そのものがAIの核心だというわけです。このあたりが、1980年代の第2次人工知能ブームのときの哲学的な論争に重なってくると思うんですね。
 もちろん給与計算や数値計算などのコンピュータ処理というのは産業としてあるんですよ。けれども、もともとコンピュータには思想的な淵源があって、それをピュアに追求してきたのがAIだというふうに僕は思っているんです。
 第1次AIブームというのはすでに1950年代に始まっていた。その基礎を築いたチューリングとフォン・ノイマンは、どちらも数学者だけれど、論理学者でもあった。つまり、チューリングもフォン・ノイマンも、ダフィット・ヒルベルトがやっていたような数学基礎論を研究していたわけです。
 19世紀末から20世紀初めの哲学には、論理主義という考え方がありました。フレーゲとかラッセルとかウィトゲンシュタインみたいな人が出て、記号をルールにもとづいて操作する論理主義的な流れが、分析哲学や記号論理学につながっていった。今挙げた3人はAIと直接関係ないけれども、思想的には、チューリングやフォン・ノイマンともある意味では非常に近い。つまり、人間の正確な思考とは何なのかということを突き詰めていった人たちがいて、その人たちが分析哲学のベースをつくった。その延長線上で、思考する機械をつくるというのが、チューリングとフォン・ノイマンの仕事だったと思うんですね。こうしてコンピュータができたわけです。
 思考機械であるコンピュータを使って、現実にどこまで行けるんだということが試されたのが、第1次AIブームだったと思うんです。汎用の思考機械をつくろうとしたわけですよ。それがLT (Logic Theorist) とか、GPS (General Problem Solver) というものだった。ダートマス会議のときも、LTでもって、ラッセルとホワイトヘッドの『プリンキピア・マテマティカ』にある定理を半分くらい証明した。それはすごい成果だったのです。とはいえ、応用面では、ゲームとかパズルとか限られた応用分野しか歯が立たなかった。コンピュータの性能もまだ非常に低かったですしね。それで第1次ブームは終わった。
 1960年代になるとメインフレームというものが現れ、コンピュータの性能がぐっと上がった。その中で出てきたのが第2次ブームです。これは汎用AIというよりは専用AI、各分野の専用思考機械をつくろうということですね。技術的な中核は知識表現です。ゲームやパズルだけだったら実用性が低い。それでファイゲンバウム教授たちは、人間のエキスパートを代替するシステムをつくろうとした。弁護士の代わり、医者の代わりができないかと考えた。あのころ、近々に弁護士や医者なんか失業するだろうと予言した人がいっぱいいたんですよ。今も全然そうなっていませんけどね。(笑)
 知識表現ベースのAIというのはいろいろあります。日本の第5世代コンピュータは、述語表現によるPrologという言語を採用した。第5世代コンピュータは、述語論理の基本部分である一階述語論理で知識命題をダイレクトにそのまま書き下し、並列に推論するシステムです。エキスパートシステムの場合にはちょっと違って、if-then-elseのプロダクションシステムですが、いずれも演繹推論の自動化です。
 ところが、人間の知識というのは、医者や弁護士の知識もふくめ、必ず曖昧さがあって、1か0かじゃないんですね。論理的にどちらかが絶対正しいわけではない。例えばお医者さんの診断って、患者のデータをとって、病名を当てるわけじゃないですか。これは正確には演繹ではないんですね。AIというのは演繹推論をするわけですよ。ところが、診察というのはアブダクション、仮説推論だと思うんです。
 例をあげると、肺炎になったら熱が出る。これは大前提、あるいは法則と言ってもいい。それから、ある患者が肺炎である。これは論理学的には小前提ですけど、これは状況をあらわしている。それで、その患者さんは熱がある。これは事実なんですけど、結論でもある。演繹だったら、肺炎だったら熱がある、この患者さんは肺炎だ、じゃあ、この患者さんは熱が出るとなる。この推論は絶対正しいわけですよね。
 ところが、診察というのは何なのかというと、少しちがう。肺炎だったら熱が出るという法則の知識(大前提)がまずありますよね。次に、この患者さんは熱があるという事実(結論)がある。そして、診断においては、大前提と結論から小前提、つまり患者さんは肺炎である、という状況(小前提)を導くのですね。だけど、これは論理的には必ずしも正しいわけじゃない。推測でしかないわけですね。肺炎でなくてただの風邪かもしれない。診断は仮説推論、アブダクションというものをやっているわけだから、演繹とは論理学的に構造が違う。そうなると、いくら高速な論理推論機械をつくったとしても、その結論の正しさがどうもよくわからないということにもなる。
 マイシン (Mycin) という細菌性血液感染症の診断をするプログラムがスタンフォードにありましたが、まあまあ当たるんですね。専門医にはかなわないけど、普通のお医者さんよりは当たるぐらいな感じだった。でも、実用化はされなかった。なぜかというと、結局、誤診したときにAIは責任をとれないからです。知識があったときに、その信頼度みたいなものを数値化して、ラベル付けをする試みもあった。知識を二つ組み合わせるときには、両者の信頼度を掛け算しようとか、いろいろやったんです。でも、結局あまり信用できないというので、社会的責任の問題が出てきて、だめになってしまった。
 第5世代コンピュータ研究開発がなぜ失敗したのか。自分がちょっと関わったこともあって僕はぜひとも言いたいことがあります。最近、失敗した理由はデータが不足していたとか、コンピュータの計算能力が不足していたとか言う人がいますけど、それは間違いです。大量データの論理計算を高速化するという技術がいくら高くでも、論理的な考察が不十分だったということなんですね。
 第5世代コンピュータは、技術的にはすぐれていました。10年で並列推論マシンをつくったんですからね。その特徴は、いろいろな命題を並列にサーチしていくことと、ロジックマシンといって、高度な論理機能をそなえたハードでPrologでの表現そのものを実行しちゃうこと。だから、効率がいわけです。
 高速推論という技術面ではうまくいったのだけれども、実際の応用面で役にたたなくて失敗した。そこを反省していない。実用的なAIとは何かについての見識がプロジェクトの指導層になかった。実はプロジェクトのリーダーは僕の卒業した東大計数工学科の先輩で、もう亡くなったのであまり言う気はしないのですが、正直にそう思います。
 すごく高い技術を日本人はもっていたんだけど、思考機械における一番本質的なところを見なかった。その反省はやっぱりやるべきだった。反省しないでずるずると来ちゃって、第3次AIブームに入ったという点は、僕は非常に問題だと考えます。日本の研究者たちは、実用的な知識というのは何なのか、それを自動的に組み合わせていく行為は何なのか、ということに関して、根本からきちんと考えなかったし、今も考えていない。
 歴史的に考えると、あの後出てきたのが、パソコン、ワークステーション、インターネットです。80年代の初めには、DARPANET、インターネットの前身みたいなものはあったのだけど、今みたいには使われていないし、商用化もされていなかった。端的には、インターネットはまだなかったわけですよね。パソコンもほとんど普及していなかったわけです。おもちゃみたいなマシンはありましたよ。でも、あまり実用的に使われていなかった。
 その後どうなったのかというと、パソコンなど安いコンピュータで人間の知恵をうまく組織化する技術が主流になった。つまり、すごく基本的な機能だけを持った安いチップを大量生産し、一般に普及させるという、日本の第5世代コンピュータと全く正反対のことが起こった。第5世代コンピュータはすごく精密で高価なハードです。それと全く逆に、シンプルで安いものをいっぱいつくって、それをみんなが使えるようにした。協力して知恵を集めていくという、全然違うパラダイムの情報処理が主流になった。
 第5世代コンピュータは、すごく世界中から期待されていたんですよ。その当時、日本は景気がよくて、ジャパン・アズ・ナンバーワンと言われた頃ですから。ところが、第5世代コンピュータとは正反対のものが主流になっちゃった。この原因はなにか。やっぱり、もうちょっと本質を考えるべきじゃなかったかなと。哲学的批判がいろいろ出ていたのに、ちゃんと受けとめずに細部技術の工夫だけに走ったということはあると思いますね。

その2
その3