
人工知能(AI)の意識や感情について語る時、「トロッコ問題」という倫理学の思考実験が引き合いに出される。
「トロッコ問題」は、具体例をだして説明すると次の様な感じだ。
線路を走っているトロッコが制御不能になり、暴走している状況だとする。
このまま暴走し続けるとトロッコの進行方向で作業をしている5人が猛スピードのトロッコに轢かれて命を落としてしまう。
この5人の作業員は、逃げる事はできないのだが、あなたの目の前に線路のポイント(進路を変える事ができる装置)がある。
このポイントを切り替えれば、5人の作業員は助かるが、もう一方の場所にはもう1人の作業員がいるため、その1人が命を落とすことになる。
そのような状況で、5人を助けるために1人を犠牲にする選択をすることができるのか?
もしくは運命を受け入れて何もせずに、5人が命を落とすのを受け入れるか、究極の選択が求められる。
このトロッコ問題は、人工知能の倫理を考える上で避けては通れない問題である。
人工知能は意識や感情を宿すのか?
その答えは、現時点(2018年)の段階では、ありえないと言えることが出来る。
しかし今後の技術発展の中で、人工知能に意識や感情を宿すためには、トロッコ問題の様な課題に対し、シビアな判断を迫られる場面は増える。
そのような判断をする時に、人工知能の意識や感情への理解を深め、人口知能をどの様にプログラミングするべきかを考えさせられる。
人工知能に意識や感情を宿すことはできないかも知れないが、意識や感情を感じるような人口知能を生み出すことが、とても難しい。
だからこそ、自ら意識や感情を感じるような場面を意図的に増やしてゆくことが力になるのだ。