私はまだまだ時期尚早だと思っていますが、始まってしまったようです。
何らかの事故が起こったとして、責任の所在は何処にあるのか。
自動車メーカーなのか、
AIメーカーなのか、
それとも、運転席に座っている人間なのか、
機械である以上、絶対は無い。
これは人間も同じだ。
メリットに、
交通事故の減少、
人件費の削減、
多言語化が容易、
などとあるが、本当にそうなのだろうか?
あくまでも無人化した先に、上記のメリットが考えられるだけである。
私はそう簡単に無人化出来るとは思っていない。
AIは、人類の歴史では到底及ばないほどの膨大な量の失敗例から学んで、失敗しないようにする。
これは人間も同じだ。
同様に成功例から学ぶことも可能ではある。
例えば、将棋のAIと自動運転のAIを考えてみよう。
将棋のAIは、数々の負けを電脳空間で擬似的に経験して、決められた時間内に見つけた最善の手を打つ。
自動運転のAIは、数々の運転を電脳空間で擬似的に経験して、瞬時に最善のドライビングを行わなければならない。
将棋のAIは、9×9マスという有限なエリアにおいて、高々40個の駒の高々有限の決められた挙動だけを試行すれば良い。
しかし、自動運転のAIは、地球上のあらゆる道路というエリアにおいて、様々な挙動が定まらないものを対象としなければない。
将棋の勝負は、戦いで負けても、そのAIの性能が低かったから負けたで済まされる。
しかし、自動運転のAIに負けは許されない。
高々数百年の自動車の歴史のなかで、どれほどの自動車事故があったのだろうか。
確かに多くの失敗例はあるのだが、それを教師データとしてインプットしたとしても、まだまだ十分ではないだろう。
その教師データを踏まえて、AIが数限りない思考実験、試行回数を積み重ねていったとしても、まだまだ十分ではないだろう。
なぜそう思うかというと、相手は自然だったり人間だったりするからです。
例えば、天気予報とか曖昧な幅を持たせた表現をしたりするのに、それでも外れるときがある。
降水確率0%でも大雨が降ることもある。
どこまで試行すれば十分なのか、よく数学者が確率統計的にいくついくつみたいなことを言うけど、それは絶対ではないということを一般人は知らなければならない。
すべての道路上のすべての物体の挙動を理解して、AIが最善の行動をする。
では、最善の行動とは何だ?
あなたはトロッコ問題(トロリー問題)を知っていますか?
ある人を助けるのに、他の人を犠牲にするのは許されるのか?
という倫理学の思考実験である。
AIとしてトロッコ問題の結論を出したとして、人間はそれに納得出来るのだろうか。
ではでは