アーキテクチャによる管理とフレーム問題

携帯マナー:電車などで自動オフ 通信事業者が10月開始
http://www.mainichi-msn.co.jp/today/news/20050823k0000m020147000c.html

携帯電話のマナー対策として、電機・通信関連企業でつくる情報通信ネットワーク産業協会……は、電車や病院内で自動的に携帯電話の電源が切れるシステムなどの検討を10月に始める。電波が医療機器などに悪影響を与えるのを防ぐため。通話を控えるよう呼びかけるだけでなく、技術的に通話を制限する仕組みを議論するのは初めて。

…(略)…。

 ただ、強制的に電源を切ると車両内での事件やトラブルで緊急に通報が必要になっても対応できない恐れがある。こうした課題を解決するシステムも検討対象になる。今年度中に規制の方法や問題点について論点を整理し、総務省など関係機関への提言や、実際に規制を導入するかどうかの判断材料にする。


「電車内・病院内ではケータイをオフにせんといかんのじゃ、ゴルァ」という規律訓練ではどもならんので、「技術的に通話を制限する」環境管理に移るのだ、と。
でも、そうすると、その管理の目的・意図からすると、想定外の「緊急に通報が必要」な状況に対応できないことが考えられるから、困ったな、と。


この問題の構図は、人工知能でのフレーム問題のそれと同じである。
フレーム問題については、ダニエル・デネットがわかりやすい寓話で例示しているので、引いておこう(「コグニティブ・ホイール」『現代思想』15巻5号、1987年)。


この寓話は「むかしむかし、R1となづけられた一台のロボットがあった」ことから始まる。
ある日、R1の貴重なエネルギー源たるバッテリーを保存してある部屋に爆弾がしかけられた。
そこで、R1は、バッテリーを救出すべく、直ちに行動を開始し、バッテリーの置かれたワゴンを部屋から持ち出した。

ところが、不幸なことに爆弾もそのうえにあったのである。R1は爆弾がワゴンのうえにあることを知っていたが、ワゴンを引っ張り出すことがバッテリーといっしょに爆弾を持ち出すことになるということに気づかなかったのである。かわいそうなR1は、自分が計画した行動の、この明白な帰結を見落としていたのである。
……。設計者たちはいう。「答えは明らかだ。つぎのロボットは自分の行動の帰結として、自分の意図したものだけではなく、副産物についての帰結も認識できなくてはならない。ロボットは周囲の状況の記述を用いて自分の行動を計画するから、そのような記述から副産物についての帰結を演繹させればよい。」かれらはつぎのモデルを演繹ロボットR1D1とよんだ。

(p.128)


これは行為(の責任)/その結果(の責任)という問題系にもかかわってくるものだが、それはとりあえず措いといて。*1

かれらはR1D1をR1と同じ苦境にたたせた。……。それからかれ〔R1D1〕は、設計されたとおり、その行動の帰結を考えはじめた。かれはワゴンを部屋から引っ張り出しても部屋の壁の色は変わらないだろうことを演繹し、つぎに、ワゴンを引けば車輪が回転するだろうという帰結の証明に取り組みはじめた。そのときであった、爆弾が爆発したのは。

(p.128)


それから、どしたの。

「われわれはロボットに、関係のある帰結と関係のない帰結の区別を教えてやり、関係のないものは無視するようにさせなければならない」と設計者たちはいった。そこでかれらは、帰結を目下の目標に関係があるかないかにしたがって分類する方法を開発し、それをつぎのモデルに備えつけた。このモデルは分別のある演繹ロボットR2D1とよばれた。

(p.128)


おお、いよいよ「R2D2」に近づいてきたな。
しかし、まだ「R2D1」てことは、また失敗するのか(そのとおり)。

設計者たちはR2D1を、かれの先輩たちが完全にうちのめされた例のテストにかけてみた。すると、驚いたことに、かれは部屋のなかに入ろうともせず、まるでハムレットのようにじっとうずくまったままであった。部屋のなかでは時限爆弾がチクチク音をたてていた。かれは、シェイクスピアが(そして最近ではフォーダーが)見事に表現したように、赤く燃えあがる、もって生まれた決断力を憂鬱な心の壁土で塗りたくっれてしまったのだ。「なにかしろ!」と設計者たちは叫んだ。かれは「してるよ」と答えた。「ぼくは、無関係な帰結を探し出してそれを無視するのに忙しいんだ。そんな帰結が何千とあるんだ。ぼくは、関係のない帰結をみつけると、すぐそれを無視しなければならないもののリストにのせて、……」。かくてまたもや爆発。

(p.128-9)


フレーム問題とはつまり、情報処理(能力)を拡張していくほど、世界の複雑性が増大し、結局はそれを処理しきれなくなる、という問題のことだ。
情報処理能力の拡張は、一見すると、世界の複雑性を縮減するように思えるかもしれないが、本質的にはそれを増大させるのである。
ロボット=情報機械は、根気よく延々と――〈無限〉に――情報処理をつづけていくことができるかもしれない。
しかし、そのタスクはやはり永遠に終わらない。
その前に終末(有限な時間のうちで作動する爆弾の爆発)がやってきてしまう。


R2D2を、このような情報処理能力の拡張という方向で、また設計してしまうと、同じ憂き目をみてしまうことは明らかだ。
では、どうすればよいのか。
設計者たちは頭を抱え込んでしまうか。
そんなことはない。
情報工学の知り合いをみても、情報工学の動向をみても、フレーム問題に真っ向から頭を悩ませている人など皆無に等しい。
工学者というのはきわめてpracticalな発想をするからだ。
ありとあらゆる〈無限〉の状況に対応できるロボットを設計する必要性は乏しい。
そこそこうまくやっていけるロボットができればよい。
先のR1でいえば、「ワゴンに爆弾が載っている場合は、ワゴンから爆弾をどけて、部屋から引き出す」というアルゴリズムを加えれば、さしあたりは十分だろう。


そのような改良の究極形がR2D2だ。
だから、R2D2は当然、人間と同じように失敗する=まちがいをおかす。
それでいいのだ。
R2D2は、人間と同じように、ほどほどにうまくやっていけるロボットでもあるのだから。


大澤真幸は、このフレーム問題をあつかった鼎談のなかで、次のように指摘している(+松原仁黒崎政男「一般フレーム問題とは何か」『現代思想』18巻7号、1990年)。

フレーム問題を解くには、ある意味で、無視する操作ができればいいんだということは、初期の段階からもちろん気がつかれていたわけですよね。ところが無視できるようにしたいと思うと、無視する動作を定義しなければならない。それはデフォルト論理の問題などにつながってくるわけですけど、ただそうすると、無視したことにはならないということがポイントなんです。つまり、そうすることによって「無視する」という操作をやってしまう。無視するということは何もしないということですよね。けれども、無視する操作を定義してしまえば、「無視する」ということをやってしまうわけで、本当の意味で無視したことにはならない。
何もしないことによって根本的に有効な効果をもつというところに、無視ということのひじょうに不思議な性格がある。そういうネガティブなものがポジティブな効果をもつというところが、いちばん重要なところなんです。ですから、この不思議をどう理解すればよいのかということが分かれば、じつはフレーム問題が何であるかということも分かる。

(p.177-8)


やたら「不思議」を強調するのはやめましょうよ、というところはあるものの、「何もしない」という「ネガティブなものがポジティブな効果をもつ」という指摘は重要だろう。
「何もしない」からこそ、R2D2(あるいは人間)は失敗・まちがいをすることがある。
しかし、「何もしない」からこそ、成功することもまたあるのだ。
あとは、その失敗/成功のリスクの比較考量というpracticalな問題である。


ケータイに話を戻そう。
電車であれば、電源強制オフシステムを組み込んだ車両と、組み込まない車両を設けるくらいでいいではないか。
ペースメーカーを使っている人のように*2、ケータイ電源オンのリスクが大きい人は、強制オフ車両に乗るだろうし、家族に容態が急変する可能性のある入院者をかかえている人であれば、強制オフのない車両に乗るだろう。
つまり、R1に「ワゴンに爆弾が載っている場合は、ワゴンから爆弾をどけて、部屋から引き出す」というアルゴリズムを加えるくらいで、やめときましょうや、ということだ。


もちろん、ペースメーカーを使っている人が、強制オフ車両に乗ったことで、重要な緊急連絡が受けられなくなるという状況もあるかもしれない。
しかし、そのリスクは強制オフのない車両に乗ったときのリスクより小さいはずだし、また小さいだろうと考えるからこそ、強制オフ車両に乗ったはずだ。
そうしたリスクの比較考量がめんどくさい(複雑だ)からといって、情報技術(アーキテクチャ)にそれを委ねることはできない。
情報処理(能力)の拡張は、世界の複雑性を縮減しないのだから。
ルーマンによれば、それを縮減するのは、「信頼」などの社会的なメディアである。
情報技術を「信頼」するかどうか、あるいは情報技術への「信頼」をどう確保するか。
その「信頼」は、情報技術の情報処理能力の高さへの「信頼」ではありえない。
そもそも、情報技術の内実の理解して「信頼」するには、それはすでにあまりに複雑すぎるから(個々人のbounded rationality の限界を超えている)。


こうしたジレンマのなかに私たちは生きている。
情報社会がリスク不安をともなうのはそのゆえだ。
そのリスク不安に変に押し流されないこと。
そのために、リスク(失敗可能性)を許容する余地を、意図的に作りだしていくこと。
それは技術的にではなく、社会的に作りだすものだ。
そして、その余地=「欠陥」をアーキテクチャに意図的に組み込んでいくこと。
レッシグ(『CODE』翔泳社、2001年)の主張とは、そのようなものでなかったか。


規律訓練型権力環境管理型権力が結びつけば、それは悪夢(Big Brother?)を招来するかもしれない。
しかし、わたしたちはどうしてそのように夢想しがちなのか。
規律訓練型権力環境管理型権力が対抗・拮抗するような、「第三の道」はないものか。
それもまた、危うい道であるかもしれないが、神なき時代以降を生きるわたしたちに、やはり機械から神(deus ex machina)は現れ出ない。
不完全なノイラートの船を、不完全にであれ、作り替え、乗り継いでいくしかあるまい。

*1: 北田暁大『責任と正義』勁草書房、2003年、p.303から、引用してメモっておく。「システムは、因果論的・意味的な文脈的情報を整序することによって、システム関与的な「行為」と「その結果」、すなわち、特定のシステムにおいて責任を問われうる行為と、その行為がもたらす付随的な結果――それは他のシステムにおいては「行為」と記述されうるかもしれないが――との区別を可能にし、「強い」責任理論が問題化するような《行為/その結果》の本質的な区別不可能性を隠蔽する。」

*2: ケータイの電磁波が実際どれほどペースメーカーに影響するのかという話はここではとりあえず措いておく