印刷

共感するロボットの怖さについて

0 はじめに(問いを3つに分ける)

 人間は、機械を発明した時から、想像力を働かせて、考えるコンピュータや、人間とそっくりのロボットを夢見てきた。

 ドラえもんは、のび太くんがいじめられると「助けてあげるよ」と慰め、どら焼きを食べると「美味しいなあ」と幸せになる。

 だから、ロボットだって考えたり感じたりしているのだ、と考えるのは異常なことではないし、むしろロボットが人間社会に受け入れられる素地はある、といえる。

 だが長じて、コンピュータがどの様な仕組みで動いてるのかを知ってしまうと、何か人間の感情の対処の仕方とは「異質な」ものを感じてしまう。

例えば、人間が愛着を抱く動物のイメージが提示されるとしよう。

 

 

 

 

 

 

 

 

 

 

 

しかしこの愛らしい質感を備えた動物のイメージは、機械語に処理されると以下の様な記号の組み合わせになる。

 

 

 

 

 

 

 

 

 

 

 

要するにコンピュータとは、正確に働く、疲れにくい計算機でしかない。

そこで、コンピュータを考える時に、いくつかの絡み合った問題をほぐしていくことが必要だ。

つまり(1)脳における情報処理を完璧に再現することが可能か、という技術的な問いと、(2)人工知能の発達によって機械に「私」という意識が生じるようになるのか、という問い、そして(3)ある人間社会で便宜的に使われているロボットが、別の文化に属している社会でも受け入れられることが可能かどうか、という問いは、分けて論じるのが適切なのではないか。

その理由は、(1)からは「思考することは、理解することを必要とせず、それ自体は意味を持たない記号を操作することでしかない」(形式主義)という、デジタルコンピュータの根幹にある考え方を検討しなければならないからだ。

 そこでまず始めに、人工知能研究の理論を批判したアメリカの哲学者ジョン・サールが、1980年に提案した「中国語の部屋」の思考実験を紹介するとともに、なぜこの様な議論が問題として提起されるのか、検討してみたい。

 

 (2) (1)において、形式主義の考えにより「思考とは記号の操作である」と定義したが、ニューラルネットワークにおいては、人間の脳に1000億個あるニューロンがモデルに作られている。ニューロンには20万個のシナプス(入口)と1本の出力チャンネルがあり、発火するか、しないかの決定は細胞体でなされる。つまりニューロンは、次の行動を決定するために20万個の被加数が関与している。

 ニューラルネットにおける情報処理は、規定のプログラムではなく、神経細胞と同じ働きをするニューロンの結合関係や結合強度によって行われている。

 従って、ニューラルネットを使えば、曖昧な画像のパターン認識なども可能になる。

 では将来的に、脳と身体を持った「人間の複製」を作ることが出来れば、その「人間の複製」には「私」という意識が生まれるのだろうか?

 脳という知覚器官と身体という運動器官を備えても、「「私」という意識が生じる論理的必然性はない」という結論を出したのが「ハード・プロブレム」を提唱したオーストラリアのディヴィット・チャーマーズである。

 人間とそっくりの外見をし、他者と会話の応答も完璧に行うにもかかわらず、「私」という意識がない存在について主張するチャーマーズの考えは、現代版心身二元論と見なされ、「ゾンビ論法」とも呼ばれている。

 「ゾンビ論法」への批判は数多くあるが、ここではこの論の正否ではなく、(1)と同じ様に、なぜこのトピックが人々を論争に巻き込ませるのか、その動機は何なのか、について考えてみたい。

 

(3) 実は、(1)(2)の問いは、(3)への前哨戦でしかない。

 ロボットが思考したり、意識を持ったりすることで、意識の改革を迫られるのは、人間の方だからだ。

 ある文化的コンテクストを共有した(ような機能を掲載した)ロボットは、それ以外の文化を共有する社会の人々に対しては、否定的な評価を下すのか?

 更に憂慮すべきことは、思考と意識を備えた機械を社会に導入することによって、同じ共同体の人間を分断する事態が生ずるのではないか?

 AI(人工知能)が人間の職業を奪ってしまうという恐れは、ここに端を発していると推測するが、機械など存在する以前から、人間は他の価値観を持つ人々をなるべく排除したがり、同じ共同体の中においても、相対的な評価に苦しむ人々の存在を生み出し続けててきた。

私の関心は主に、「どのような方法でロボットを社会に導入すれば、社会に生きるある集団は、不公平感を感じるようになるのか?」ということである。

こうしたことを考えるようになったのは、科学技術の発展によって、人間の生活は確かに楽になったのだが、環境破壊などの負の遺産も残してきたことを、一部念頭に置いているからである。

 

 

1 中国語の部屋(「思考とは言語であり、言語とは「意味」を持たない、記号の操作である」という考えへの反論)

 

以下に、サールによる「中国語の部屋」の思考実験を示す。

(1)ある部屋に、英語しか読み書きできない人と、中国語(その人には理解不能な記号列)に対して、どのような中国語(記号列)を操作すれば良いのか、英語で書かれたマニュアルが置いてある。ただし、このマニュアルは辞書ではないので、中国語(記号列)を操作する人は、中国語の意味を理解することはできない。

(2)窓が二つあり、片方の窓からは中国語で書かれた質問が入ってくる。

(3)部屋の中の人は、マニュアルを駆使して、質問に対応する記号列(中国語)を回答用紙に記入し、もう片方の窓に提出する。

(4)部屋の外にいる人は、部屋の中にいる人が、中国語を理解していると思っている。

しかし、部屋の中の人は、記号を操作しているだけである。

(5)従って、人間の心は統語論(記号をどのように操作すれば有意味な文が作れるか)以上のものを持っている。

(6)すなわち、人間の心には意味論(記号が対象を持ち、文全体の意味は構成要素の記号の意味から合成される)を持つ。

サールの論点は「そもそもアルゴリズムに従って動く計算システムは知能を持てない。なぜなら、計算とは定義上形式的記号操作なのだから、そこには意味の理解がない、しかし知能にとって意味を理解することは不可欠の要素だ。」(戸田山 2014)

サールの「中国語の部屋」に対する反論と、それらに対するサールの再批判については、上掲の戸田山ほか、(山口 2009)が整理しているので、こちらを紹介する。

(批判1)英語しか理解していない人は中国語を理解していないが、「中国語の部屋」全体は中国語を理解して質問に回答しているではないか?

(これに対するサールの再反論)

部屋の中の人がマニュアルを丸暗記したとしても、その人は中国語を理解することはない。

しかも、その人は英語は理解している。

従って、「記号変換」と「理解」は別のものと考えるべきである。

(批判2)「中国語の部屋」をコンピュータを備えたロボットに搭載して、カメラからの画像をもとにロボットを行動するようにプログラムすれば、そのロボットは世界を「理解」するのではないか?

(これに対するサールの再反論)

ロボットに搭載したとしても、コンピュータが記号変換する点は変わらない。

(但し、認知には外界との関係が重要である点で、この指摘には一考すべきものがある)

(批判3)

(批判2)のロボットに掲載するコンピュータが、「中国語を理解する人の脳の神経細胞の働きをシミュレートするコンピュータ」であれば、ロボットの行動も、中国語を理解する人と同じ働きをするのではないか?

(これに対するサールの再反論)

コンピュータで意識を再現するという研究の核心は、心はソフトウエアで、脳というハードウエアとは独立に研究できるということだったはずである。それなのに、意識の研究のために脳の機能を調べなければならないのなたら、それに加えてコンピュータによる意識の研究などしなくてもよい。

また、「脳シミュレータ」が神経細胞の電気的興奮の形式的構造のみをシミュレートするのであれば、そうしたシミュレーション・プログラムは意識を持たない。(サールによれば)意識は、脳という物質において立ち現れるものなので、意識を再現するには、脳と同じものを製作しなければならないはずだ。しかしシミュレーションとは、もとの物質そのものではない。

(批判4)

コンピュータのみならず、他人の心もその振舞いから、その人に心があることを推定しているのだから、心を持つように振舞うコンピュータも、心を持っているというべきではないか?

(これに対するサールの再反論)

我々が他人において意識(心の存在)を見て取る時に、具体的にはいったい何を見て取っているのかを問題とすべきだ。

サールの議論はここで一旦終了するのだが、同じ山口(2009)の「心の理論」の章において、山口は「我々は、動機や関心を持って、世界の中に情報を設定しながら生きているのであるが、意識を持っているように見えるものとは、ひとつには、そうして設定した情報を共有することができる相手のことである。」(山口 2009 p.213)という一つの結論を出している。

さて私は、この「中国語の部屋」を紹介する際に、私自身の関心を述べた。

「なぜこの様な議論が問題として提起されるのか?」

普段の生活において、私たちは「思考する」ことが必要な時だけしか、思考しない。

その「思考する」ことを、機械なりコンピュータが正確に、疲れることなく実行することができるのならば、その「思考する」部分を、機械なりコンピュータなりに代理でおこなってもらうことに、なぜ恐怖感なり拒否反応なりが出てくるのだろうか。

科学技術が発展した結果、ご飯は炊飯器が炊いてくれるし、冷たい食べ物をレンジでチンして温めることもできる。掃除機や洗濯機のない世界に戻ることは難しい。

人口「知能」という言葉は、いったいどんなマイナス作用を、人々に与えているのだろうか。

私のひとまずの結論は、コンピュータが「思考する」ことと「「私」という意識を持つ」ことが、混同されているからだと考える。

そこで、(2)「ゾンビ論法」にトピックを移すことにする。

 

 

2 ゾンビ論争

ゾンビ論争は、面白い現象だ。

この考えを提唱したデイヴィッド・チャーマーズ(1966-)自身が、「たぶん、本当に複雑な知的振る舞いと機能を持ったコンピュータでさえ、たぶん意識を持つだろうとは思う。でも興味深いのは、少なくとも想像の中だけにしても、どこかのだれかがある可能な世界で、意識を持たないのにぼくと同じように振る舞うことは可能だと思うんだ。でも僕たちの世界はそういうんじゃない」(ブラックモア 2009)と言い切っているところである。

彼は、広い意味では機能主義者(脳の全機能を機械で再現したら、その機械は意識を持つ)だと述べている。

しかしこの「思考実験」は、多くの神経学者の神経に触れる。

つまり、この発言に対して、人々は何か一言、言わずにはいられないのだ。

スーザン・ブラックモアの『「意識」を語る』には、各識者たちの意見をインタビュー形式でまとめたものだが、ここにも「ゾンビ論争」はやってくる。

そのうちのいくつかを紹介する。

フランシス・クリック卿

(1916-2004 J・D・ワトソンとの共同研究でDNA構造(二重らせん)を発見)

ー哲学者のゾンビは可能だと思いますか?

ーいや、思わない。今やわれわれは、意識があるためにどんなものが必要か、はっきりわかっているからだ。ある限られた期間だけで、なにかを知覚していなければならないし、十分に複雑な状況下でまったく違ったたくさんの方法でそれに反応、対処、思考する機会がなければならない。

ダニエル・デネット

(1942- デカルト劇場を否定して、多数草稿理論とヘテロ現象学を支持)

ーだってわれわれは物理世界の一部だ。謎の代物なんてない。二元論は絶望的だよ。(中略)私が思うに、かれらはゾンビに道徳的重要性がないんじゃないかというのを恐れているんだろう。

クリストフ・コッホ

(1956- フランシス・クリックとの共同研究で皮質と視床のニューロンの相互作用から意識が発生するための枠組みを構築)

ーゾンビを信じる?つまり哲学者のゾンビの可能性です。

ー信じない。それにNCC(意識の神経相関)ニューロン、これらを働かなくしてしまったらゾンビになるという10個のニューロンなんてものがあるとも思わん。でも意識を生み出すニューロンには特別な形態や投射パターンなど、何か特別なものがあるとは思うね。もしそうなら、当然ながらわれわれ神経学者の仕事は非常に楽になるね。

ヴィラヤヌル・ラマチャンドラン

(1951- 最初は視覚について研究していたが現在は神経学と共感覚についての研究で知られる)

ーゾンビは可能だと思いますか?

ーいや、あり得ません。われわれにうり二つの生き物を作ったならーゾンビの作り方がどうであれー人間感覚の意識がしっかりあると思います。

ー物理的に同じでないといけませんか?それとも機能的に同じですか?

ー大皿でできていてもシリコンチップ製でも関係ないかということですか?さっぱりわかりません。決め手は情報の流れだと思いますから、そういう意味でわたしは機能主義者ですね。でも確信は持てません。

実はここでは、全員がゾンビの存在に反対している。

というより、ここに登場する以外の人物も、「思考実験としてのゾンビ」については認めていても、それが本当に存在すると信じるものは(私が確認した限り)いない。

つまり、ほとんどの人は「なぜゾンビは存在しないのか」という思考のプロセスを展開しており、それが各研究者の方法論の中心ともいうべき部分を突いているゆえに、皆が熱心にゾンビについて語るのだ。

ここで上の論者の主張を簡単にまとめると、クリックは「意識があるためには何が必要か分かっている(彼は別の箇所で「脳で起こっていることのほとんどが無意識だからこそ、意識があるときの脳の活動と意識がないときの活動との違いを知りたい」と述べている)」、デネットは「意識は物理的世界にしか存在しない」、コッホは「それがなければ意識を失うだけの働きをするニューロンはない」、ラマチャンドランは「物理的世界というより情報の流れが意識を生む」ということになる。

私は「0 はじめに」で(2)ゾンビ論法について、「なぜこのトピックが人々を論争に巻き込ませるのか、その動機は何なのか、について考えてみたい」という問いを立てた。

それに対する私の結論は、ニューラルネットワークや人工知能の発達によって、機械に「私」という意識が生じるようになることは、物理的条件を与えれば可能だと、多くの人々が思っているからなのではないか、ということである。

だたしこの「物理的条件」とは、例えば身体性を持っているから、好悪についての選択肢を持ち異質と判断したモノを排除するから、身の回りの世界認識を恣意的に構築し随時修正していく機能を持つから、といった人間の(というより脳の)「物理的条件」とは同じと断言してよいのかは不明である。

そこで最後のトピック(3)「どのような方法でロボットを社会に導入すれば、社会に生きるある集団は、不公平感を感じるようになるのか?」に移りたい。答えは冒頭の表題に示す。

ネガティブな問いに見えるかもしれないが、これは巷で流行っている「AIによって今後なくなる職業ベスト10」などを、私なりに言い換えたものである。

 

 

3 いかなる方法でロボットを社会に導入しても、社会に生きるある集団は、不公平感を感じるようになる

ロボットや人口知能によって人間社会の意識変革が必要になる、という主張の裏には、ロボットや人工知能を備えた機械が「私」と違う主張をするかもしれない、という予感があるからだ。

「私」あるいは「私たち」でもいい。

ペットの黒猫を交通事故で無くしてしまったなら、代わりのロボットで心を慰めることはできる。長く独居している人に話し相手をするロボットがいれば、安らぎの時間を提供できる。そうしたプラスの面については、社会でロボットが活躍することは私も賛成である。

今まで作られてきた機械たちは、どんな文化的背景を持った共同体の人々にも、同じように動いてくれてきた。

それは、そうした機械が感情や動機といったものを考慮に入れていなかったからだ。

英語を母語とする人でなければ動いてくれない電子レンジ、仏教徒に対しては働くことを断固拒否する洗濯機、高校時代に理系の科目で赤点を取ったことのある人には突然やる気をなくすノートパソコン、「私」という意識を持つ機械に、そういった感情はこれまでのところ、確認されていない。

意識を持つとは、心理学者ニコラス・ハンフリーによれば(ダニエル・デネット『心はどこにあるのか』からの孫引きになるが)「自己意識の発達は、他者の心の中で何が起こっているのかについて仮説を立て、それを試すための戦略だった」と述べている。(デネット 1997)

仮に意識を持つ機械が作られるようになったとして、あるタスクを特定の人間と共に、円滑に成功させるためには、相手(人間)の心の中で何が起こっているか、相手はどんな価値観を持っているか、相手の成長過程にはどんな文化的背景があるかについて、ある程度推測する機能を持つ方がよい。

そこで、冒頭の(3)で挙げた二つの問いが生じてくる。

 

(3-1)ある文化的コンテクストを共有した(ように学習する機能を掲載した)ロボットは、それ以外の文化を共有する社会の人々に対しては、否定的な評価を下すのか?

歴史認識が一致しない問題について、特定の宗教に肯定的な見解を持つことについて、中立を装うロボットと、共感を示してくれるロボットがいるとする。

現在の私は、特定の問題に肩入れするロボットなど不気味さしか感じないが、今後はそうした意識は「古い」とみなされていくのだろうか。

 

(3-2)また憂慮すべきことは、思考と意識を備えた機械を社会に導入することによって、同じ共同体の人間を分断する事態が生ずるのではないか?

意識を持つとは習慣を持つことであり、習慣とはある共同体の中で育まれていくものだとすれば、「人間は共同体において共感する生き物である」とは、側面の半分しか捉えていない。「人間は共同体において排除する生き物である」。

こうした人間の本性を考慮に入れることが、考える機械を社会的に受容するための必要条件である。

 

【参考文献】

戸田山和久『哲学入門』(2014)ちくま新書

山口裕之『認知哲学 心と脳のエピステモロジー』(2009)新曜社

スーザン・ブラックモア『「意識」を語る』(2009)NTT出版

ダニエル・デネット『心はどこにあるのか』(1997)草思社

文字数:7620

課題提出者一覧