人工知能に功利主義が理解できるか。5人助けるために、1人が犠牲になっても良い?

1: ひろし ★ 2016/04/03(日) 22:17:44.69 ID:CAP_USER*.net

 本連載の第7回で、人工知能は「敵か、家族か」という二分法で考えられるほど単純なものではなく、遅かれ早かれ「人間の倫理」の問題として浮上してくると書いた。
人工知能の動向を追いかけていると、「人間とは何か」「社会はどうあるべきか」という問いが、人工知能を発達させるうえで避けて通れない大きな問題として存在することがわかってくる。

人工知能開発における究極の選択問題

トロッコ問題(トロリー問題)をご存じだろうか。簡単にいうと、「ある人を助けるためにほかの人を犠牲にするのは許されるか?」という倫理学の思考実験だ。

「線路を走っているトロッコが制御不能になった。このままトロッコが進むと線路前方にいる5人の作業員が死んでしまう。このとき現場で、
この状況を目撃したAさんは線路を切り替えることのできる転轍機のそばにいた。切り替えれば5人は助かるが、切り替えたほうの線路にいるもう1人の作業員Bさんは死んでしまう。手段は転轍機しかない」

これは、「5人を助けるために1人を犠牲にしてもよいか」という道徳的ジレンマに関する問題である。あなたはどう答えるだろう。ちなみに私は、転轍機を一人のほうに切り替えることを選ぶ。

この問題には、派生した以下の別バリエーションがある。

「Aさんの隣には太ったCさんがいて、Cさんを線路につき落とせば、トロッコは確実に止まり、5人を助けることができる。しかしCさんは確実に死ぬ」

この2つの問いを5000人以上に聞いたところ、最初の質問には89%の人が「5人を助けるために1人を犠牲にしてもよい」と答えたという。
しかし、2番目の質問で「Cさんをつき落とすことは許される」としたのはわずか11%。2つの質問の違いは、1人の犠牲者の「出し方」だけだ。
命を奪うことに関して、私たちの中には確実にブレーキが存在する。だから、そのことに対する関与が薄いほうを選ぶ。(参考:「wikipedia」より)

トロッコ問題解決がなければ自動運転車の普及はない?

このトロッコ問題は、米グーグルや世界中の自動車メーカーが研究する自動運転車に必要な人工知能でも考慮しなければならない。

たとえば、オイルが撒き散らされた路上に、自動運転のクルマがスリップを引き起こさざるを得ないスピードで進入してきたとする。そしてスリップする。
前方にはたくさんの子どもたちがいて事故は避けられない。ただ、搭載された人工知能には逆ハンドルを切るプログラミングがされ、少しだけコントロールできる。
道路前方の左端に突っ込んでいけば、子どもの犠牲は減る可能性がある。しかし、クルマはガードレールを突き破り、運転手が崖下に転落する。

このような場合、人工知能にどのような判断をさせればよいのだろう。乗員を犠牲にして、前方の子どもを助けるのか。しかし、乗員を犠牲にするプログラムがなされたクルマは売れないだろう。

「人数の少ないほうを犠牲にする」とプログラムすればいいのだろうか。そうすると、人工知能には「太ったCさんを線路につき落とす」可能性が開けてしまう。
論理的にはそうなる。助けるために殺人を犯すことを是とする機械が出現する。この延長は、人工知能を搭載した殺人兵器だろう。味方をほぼ完全に識別し、敵をせん滅する。
あのダークな「ターミネーター=破壊的ディストピア」に一歩近づくロボットがつくれるのだ。悪意を持った人工知能。機械が意識に目覚めなくても、マッドサイエンティストと蒙昧な政治家がいれば、それはすぐにでもできそうだ。

(以下略 全文はリンク先で)
http://biz-journal.jp/2016/04/post_14504.html
http://biz-journal.jp/2016/04/post_14504_2.html

3: 名無しさん@1周年 2016/04/03(日) 22:18:33.21 ID:iGxCw9wD0.net
もうその頃には死んでるから関係ない

 

4: 名無しさん@1周年 2016/04/03(日) 22:18:49.72 ID:bluIVUta0.net
カルネアデスの板

 

5: 名無しさん@1周年 2016/04/03(日) 22:19:21.71 ID:PrL3bGam0.net
サンデル先生に聞け

 

106: 名無しさん@1周年 2016/04/03(日) 22:41:21.97 ID:8O/nXWxd0.net

>>5
白熱教室ね

倫理に絶対正解は存在しない
時代の価値観により正しい解を選択するしかない

しかし人工知能が時代の価値観を学べるのか
人工知能自体が時代の価値観になってしまうのではないか

 

11: 名無しさん@1周年 2016/04/03(日) 22:20:33.15 ID:TTtmVhaJ0.net
どっちもほっとくに決まってるだろ。
トロッコ問題簡単すぎ。

 

77: 名無しさん@1周年 2016/04/03(日) 22:34:34.28 ID:vxbLzZD70.net
>>11
日本人ならそうだよね。手を汚したくないし、背負いたくないから無関係でいる。
でも、アメリカとかの国民は彼らの信じる正義において行動するからなあ。

 

14: 名無しさん@1周年 2016/04/03(日) 22:21:08.28 ID:0DY2IvI60.net
殺人犯になる覚悟があれば5人を助けてもいい
AIには何があっても人は殺すなとプログラムしておけばいいだけだ

 

15: 名無しさん@1周年 2016/04/03(日) 22:21:10.03 ID:gDq09Zue0.net
逆の場合はどうする?
5人の方はいわゆる下級国民で、一人の方がいわゆる上級国民だったして
上級国民を助ける方を選んだ場合

 

21: 名無しさん@1周年 2016/04/03(日) 22:21:59.49 ID:DlzDaXlz0.net
考えてるヒマはねー

 

22: 名無しさん@1周年 2016/04/03(日) 22:22:29.26 ID:MDQ1xKFS0.net
殺していいだろ
じゃないと全員死ぬんだろ?
どーしろと?

 

28: 名無しさん@1周年 2016/04/03(日) 22:24:30.72 ID:Uv/JRZ0P0.net
>>22
Aさんが何もしなければ、前者のケースならBさん、後者のケースならCさんは助かる
5人が死ぬのは運命だと諦めることにして「Aさんは何もしない」って選択肢もあるはずなんだよなぁ

 

26: 名無しさん@1周年 2016/04/03(日) 22:24:03.51 ID:oHDTqPP+0.net
無視する以外の解答が無い

 

27: 名無しさん@1周年 2016/04/03(日) 22:24:27.49 ID:cwD7Olvp0.net
こういうのって無意識にやっていることだからな
慣習がまさにそれなんだよ

 

30: 名無しさん@1周年 2016/04/03(日) 22:25:07.71 ID:DlzDaXlz0.net
人工知能はもはや自分で考えるようになるからどう考えるべきなのかなんてコト知るかって思ってるよ

 

31: 名無しさん@1周年 2016/04/03(日) 22:25:15.73 ID:IKQRZP5A0.net
一人の命で五人助かるなら
それが正解の一つ

 

32: 名無しさん@1周年 2016/04/03(日) 22:25:31.56 ID:MT9f6zcj0.net
肥ったCさんを線路に突き落としたごときで止まるなら工具でも岩でも止まるだろ

 

33: 名無しさん@1周年 2016/04/03(日) 22:25:34.48 ID:j8kBX5zr0.net
迷ってる間に終わるのが人間だろう
人工知能もこういう時は無限ループするようにしとけばいい

 

34: 名無しさん@1周年 2016/04/03(日) 22:25:58.34 ID:NW9woh2S0.net
5人は末期がんで1人の方は若者だったらどうする?

 

35: 名無しさん@1周年 2016/04/03(日) 22:26:04.60 ID:5MaXFmSt0.net
人間でも同じ話
それについての決着はついている
AIにまかせることで罪悪感は持たなくてもいいので
気楽になれる

 

36: 名無しさん@1周年 2016/04/03(日) 22:26:16.52 ID:fP996t7m0.net
ロボット三原則の実装はよ

 

37: 名無しさん@1周年 2016/04/03(日) 22:26:28.57 ID:oTAi2xGy0.net
アシモフの小説でも書かれてるな。
元々は、ロボットの人間に対する安全の担保のために最優先とされた第一原則
第一条:ロボットは人間に危害を加えてはならない。
また、その危険を看過することによって、人間に危害を及ぼしてはならない。
の上位に、自我が芽生えたロボットが、第0原則を勝手に考えて、止めようとしたロボット工学者の脳を壊して
「人類を守るためなら少人数を傷つけたり殺しても良い(大人数を守るために少人数を殺して良い)」と。

 

39: 名無しさん@1周年 2016/04/03(日) 22:26:41.58 ID:vj8nrFZQ0.net
そのうちAIが
この1つしかない地球を救うためには、全人類を殺すしかない
という選択をする

 

コメントなし

返事を書く