MAIL MAGAZINE

下記からメールアドレスを登録すると、FUZEが配信する最新情報が載ったメールマガジンを受け取ることができます。


人工知能の暴走を止めるのは、人間の示す「正しいお手本」か?

IDEAS LAB
/uploads/profile_fukudamiho.jpg
ライター福田ミホ
  • はてなブックマーク

今年8月、カリフォルニア大学バークレー校が、人間の価値観を持った人工知能(AI)を開発するための研究所を設立した。所長を務めるスチュアート・ラッセル教授は、あくまで人間の役に立つAIシステムを作りたいと語っている。この目的は自明のことのように聞こえるかもしれないが、逆に言えば、人間にとって不利益なAIの暴走を防ぐ必要があることも示唆している。

人間に不利益をもたらすAIといえば、『2001年宇宙の旅』のHALのように、ふとしたことから人間に歯向かって破滅に追い込もうとするというストーリーが想起されがちだ。だがラッセル教授らが懸念しているのは、むしろAIが人間の指示を額面通りに受け取りすぎるということだ。

たとえば家事ロボットに掃除を指示すると、そのロボットは手近にあるきれいなドレスを雑巾代わりに使ってしまうかもしれない。人間はロボットに、雑巾は汚してもいいがドレスは汚すと価値が下がること、きれいなドレスにはきれいな部屋と同じように価値があること、などを教えなければならない。

だがそのような価値観や意味を一つひとつ列挙していこうとしても、すべてを網羅的に列挙し尽くすことは難しい。それらは人や状況によって異なり、曖昧で、無数の例外がある。

たとえばドレスはきれいに保つべきものだが、英国王子妃がドレスで子どものよだれを拭いたときには、その所作が多くの人の共感と親しみを誘った。人間はこのような場合「ドレスをきれいに保つこと」と「人前で子どもの見栄えを保つこと」を秤にかけ、状況によっては後者を選択しているのだ。

そのような価値観にもとづく判断力を機械が身につけるには、「逆強化学習」という手法が有効だとラッセル教授らは考えている。それは、AIに価値観やルールそのものを教えこむのではなく、人間の行動を観察させることでルールを推測させるというものだ。

ただAIによってこうむりうる不利益は「ドレスが雑巾になってしまった」程度ではとうてい収まらず、人命を直接左右することも考えられる。端的な例が軍事ドローンなどの自律型兵器だ。現在米国軍などは、すでにドローンを使った攻撃を実践しているが、それを操作しているのはあくまで人間である。が、AIだけで敵を見分けて追尾し攻撃することも技術的には可能なはずだ。ラッセル教授によれば、特に航空機同士・潜水艦同士などの戦いであれば、技術的にはある程度実用可能なレベルに達しているという。

問題は、AIによる判断の精度というよりも、人間の判断を介在させずに殺人をすることそのものの是非になるだろう。また万一誤爆があった場合、責任の所在は軍にあるのかドローンのソフトウェア開発者にあるのか、またはソフトウェア自体にあるのかといったことも現在は曖昧なままだ。

このようにAIの進化によって、あらゆる分野での倫理的な問題が一気に噴出しつつある。ラッセル教授は、AI研究においては人類にとっての利益を重視し優先順位付けすべきだとする公開書簡も発表している。それにはスティーブン・ホーキング博士イーロン・マスクなど数千人の著名な科学者や起業家が賛同している。だがこうした議論を深めるためには一部の有識者が頭を絞るだけではなく、AIによって利益・不利益をこうむりうる多くの人による認知と関与が必要となるだろう。