ここ数年、世の中を大きく変える技術として人工知能が注目を集めています。なかでも昨年は人間の神経回路の仕組みを真似た多層ニューラルネットワークによる機械学習システム「ディープラーニング」が話題になりました。
人工知能がさまざまな分野で実用化され、その能力が人間を超えてしまう可能性が現実味を増すと、今度は人工知能が人間にとって脅威になると本気で考える人たちが出てきます。2015年の秋には、国連で多くの専門家が「人工知能が、やがては人類を滅ぼしかねない」と警鐘を鳴らしました。
その一方で、「SF映画のような人工知能の反乱はない」「仕事を奪うのではなく、我々が楽になるだけ」という反論もあります。
議論は今も続いています。ですが、これらの二項対立の外から人工知能を俯瞰すれば、他の可能性を探ることができるかもしれません。そこで、次世代の世界観を示すデジタルネイチャーを提唱する落合陽一さんに、変わりつつある人間とコンピューターの関係についてのお話を伺いました。
人間の感情も数値的に計測できる
―― ディープラーニングや人工知能がこれだけ話題になっていますけれど、そもそも知能とか知性って具体的に何を指しているんでしょうか?
落合陽一(以下落合): バラバラになっている情報の中から、情報と情報の関連性を抜き出してモデルを作り、問題を解決したり、計画を立てたりするような知的作業をできるのが知能ですね。生命はそれに自己複製に関わる性質が足されていきますが。そう考えるとコンピューターも人間も大差ないはずです。
今までのデカルト的世界観では、人間と自然を対義的なものと捉えて、自然を人間の言語で記述していこうとしたんですけれど、どうもそれが厳しいらしいってことが分かってきました。人間の言語でも記述可能だけど、それのみに限らず現象論的にコンピューターで観測した方がより守備範囲を広げられる。デジタルネイチャーは、自然、人間、そしてコンピューター自体も内側にふくんだ超自然をコンピューター機器で記述することで見える世界なんです。
―― 基本的には数値で計測できる部分だけを指して知能と定義づけているんですね?
落合: そうですね。デジタルネイチャーのデジタルって「バイナリ」という意味じゃなくて、「計測された」っていう意味です。極論すれば人間の持つ好き嫌いとか、言葉にできないふわっとした感情も数値的に計測できると思います。人はフィルタとフィルタの関係性が演算速度が速いので見えないだけなんですよね。だから、感情の数値化をしたからと言って感情の存在を否定しているわけではないんです。
キリスト教の世界がコペルニクス的転回で崩れたから、人間中心の世界で哲学を構築した。この後の我々は人間性が情報科学で崩れていくから、違う思考体系やパラダイムを探っていかないといけないだけです。歴史からすればそんな重大な問題でもないと思います。
人工知能によって人間の仕事を奪われることはない?
落合: 今の社会で人工知能の一番の問題は「人工知能怖い問題」なんです。人工知能の話題を出して、その5秒後には「人工知能に仕事が奪われる」って言う人がたくさんいますけれど、意味が分からんってやつですよね。
―― 仕事を奪ったり世界を滅ぼすかも?と怖がる人たちがいたり、逆に救世主のように過剰な期待をする人もいますよね。人工知能の議論は、どうしてこんなに人の気持ちをザワつかせるのでしょうか?
落合: 今までホワイトカラーが覇権を握ってきたからだと思います。今働いてる人のほとんどは身体ではなく頭脳が優秀だから仕事ができると思っている。でも、それ実は大きな間違いで、多くの人類は身体も相当優秀です。だから身体性に回帰すると結構良いんじゃないかなって思うんですけどね。職人たちは多分誰も人工知能のことを怖いって思ってないと思いますよ。人類は、ランダム性を生み出す「身体」というハードウェアの中に知能が入ってるから面白い。ただ知能が存在するだけだったら、きっとそんなに面白くないはずです。
仕事と機械の関係で言うと、前にインドに仕事で行ったとき、田舎の方にぶらっと立ち寄ったのですが、トイレのドアを開ける職業の人がいたので、その人に「自動ドアになったらどうするの?」って聞いたんです。そうしたら「自動ドアを管理する仕事をする」って言われました。別の所では、冷蔵庫の前で寝ている男がいたので「あなたは何をしているんですか?」って聞いたら、「俺は冷蔵庫を開けて、この中からコーラを出してお前に売る仕事をしている」って言うんですね。ああ、自動販売人間(機)か、って。
要はインドってヒューマンコンピューテーションが非常にされている国なんです。文明の発展とともに、業態も進化して変わってきたけれど、人間と機械っていう対応関係は変わっていません。どっちがえらいわけでもなく、その環境の中で機械の方が有利であれば、それのサポートに回る。なんかすごく自然ですよね。「機械や人工知能に仕事が奪われる」と言う人はいるけれど、仕事のコンビネーションの様態が変わるだけで奪われるわけじゃないんですよね。そういうことをインドにいる彼らは体現していて、そこが好きです。
実際、産業革命以後、エンジニアはそこそこの時間を割いて、工作機械のお守りをしてきたわけですが、それが知的機械のお守りをするだけですよ。あまり変わらない。
人工知能が泣けないって誰が決めたの?

落合: 人間と人工知能の違いについて議論をすると「人間は感情的な生き物だけどコンピューターは無機的だから感性がない」みたいな扱い方をよくされるじゃないですか。あれもやめたいですね。なぜかと言うと人間は意外と情報処理的な生き物だし、コンピューターはコンピューターで明示的に情報処理的だけど、今後もっとうまく絵を描けるようになったり、感性や感覚を求められることができるようになったりするはずだからです。人工知能が泣けないって誰が決めたんですかね?
人間が時に非合理的なことをするのは、合理性を邪魔するような薬剤が身体の中に流れているからですよね、ホルモンが出たりして。でもコンピューターは、プログラムが間違ってない限りは、めったにエラーを起こさないじゃないですか。合理的じゃない結論を出すときは、CPUが熱暴走を起こしたときとか電圧が不安定だったときとかです。だけど人間は、それこそ酒飲んだり、不安になったりするだけで合理性が壊れたりするもんね。
人間の面白いところは、水没したiPhoneみたいに一度壊れたら自動修復できない機械と違って「可逆的に」壊れる。むしろ人間の特徴は、その辺りにあるように思います。非合理性や反知性主義が多様性を増していて、たまに予想外のところに着地する。完全情報ゲームでは計算機が強いかもしれないけれど、そうじゃないところでは非合理性が局所最適解を防ぐ役割をしているんだと思ってます。泣いてる人とかパニックになってる人見るとそれを感じますね。人間っぽいなぁって。
人工知能が創造性を持つのはいつ?
落合: 個別の人工知能技術で一番気になってるのが、創造性をコンピューターがどう発揮できるかということです。ディープラーニングの話は面白いですね。人がエモいって思うところはどの処理で生み出されるのか、とか、それはどうやって関数で記述できるのか、といったところに興味があって、筑波大に着任してからはちょくちょく勉強したり学生さんとやったりしてます。
―― 与えられた問題を処理するのではなく、人工知能が自分で問題設定をすることができるようになれば、本当の意味で人工知能が創造性を持つと言えそうですね。
落合: 今のところコンピューターに意思はないですよね。それに、今は汎用人工知能(いろいろなことに使える人工知能)の議論もよくされますが、やはり中心は特化型人工知能であって、自発的に問題設定をするのは結構難しいんだと思います。やっぱり何か課題があってそれに対する答えを探すことに特化されているのが特化型人工知能ですから、広い範囲の問題には結論が出せない。ディープラーニングによって、問題設定と大量のデータから抽出することで、どんな特徴量やモデルが問題解決や識別に向いているかは自分で分かるようになったんだけど、そのモデルが向いている対象をどうやって作るかってことは、まだ弱いんですよね。
だけど、どういったモデルを立てると経済社会でうまくいくかは、もっと早めにモデリングできるはず。株式市場や金融市場においては、人が売買することと、機械が売買することに外見的な違いはあまりなくなってきている。企業によって、どういう株価曲線をたどるかは学習可能だから。そうなってくると意外とこの世の中にあるコスト第一主義=経済合理性は数理的には簡単なモデルなのかもしれません。
―― 客観的に正解があるかないかで問いの質は変わってきますけれど、今のところ人工知能は正解がある問いには強い反面、正解がない問いには弱いんですね。
落合: むしろ、「正解がない問い」という概念が「問いという集合」から外れていくんじゃないかとも思います。評価関数自体を定義するのが難しい集合みたいな感じで。その中でもフェチズムなんかは難しいモデルですよね、きっと。経済活動における最適化は可能だけど、例えばセーラー服を着るのが好きなオジサンを好きだと思う僕の気持ちや、人間性を捧げることを人間性と定義したい僕の最適化は難しいですよね。多分他の人全然分からないですよね(笑)
―― 落合さんご自身の中では最適化されているはずですよね。もしも、それを分解・解析していくと、セーラー服オジサンがなんで好きかが数値的に分かったり、今まで分からなかったことまで分かって、「やっぱりセーラー服オジサンっていいかも」って理解につながるんでしょうか?
落合: そこはそうかも。テンソルフローとかで遊んでると、ああこれで書ければFPGAで実装するのも大差ないなと思うし、誰かの評価関数を十分高速なハードウェア上に実装できるようになれば、カウンセリングのやり方はきっと変わるはずですよね。この人はこういう流れで考えるのかってデバッグできる。
この場合、芸術を問いにするのは多分難しいかもなぁ。でも、今世の中にある問題を集めてその中で何かで表現していくってこと自体はコンピューターにも多分できるから、問題設定の方がある程度限られていればできるかもしれません。これもやっぱり評価関数の議論。アートって割と大きい問題を扱って提示することが多いけれど、今大きい問題だと言われていることを集めるのはそんなに大変なことじゃないですよね。
僕たちはいつも「ぼんやりと」会話をしてきた
落合: 例えば象ってどんなぼんやりしたものなんだろうというのを、絵に描いていく手法が出てくると、コンピューターが言語を理解できるようになるんですよね。今例えば、DeepCNNとかで絵を作るプロジェクトが複数あるじゃないですか。我々って言語をイメージしたときに、頭の中で形態素解析を用いて辞書参照なんてしていない。象って言われたら象をイメージするんですよ。しかもその象は写真のような象じゃなくて、なんかぼやっとした灰色の固まりで、ちょっと鼻が長くて、でかくて、肉の塊っぽいやつをイメージするかもしれません。
僕らの会話ってその曖昧なイメージを言語を用いて重ね合わせながらやっている。そういう曖昧なイメージをコンピューターが持てるようになると、コンピューター同士で会話ができる可能性がだいぶ高まりますよね。この点はよくイメージと物質っていう言い方で「魔法の世紀」とかでも書きました。
専門的な会話や目的ベースの会話をするときはゴールがあるので、そういうイメージの重ね合いはあまりしない。だけど日常会話するっていうのは完全に同じデータを共有して意思疎通するのではなくて、ぼんやりとしたイメージで話すってことです。だからコンピューターがイメージからイメージを検索して言葉で返せるようになると、人間とコンピューターは自然言語を使って、なんとなく噛み合ってそうで噛み合ってないようなユルい会話ができるんですよね。
世間話や自由発話をする人間って、ほとんどぼやっとした状態でしか相手と話しませんよね。お互いのデータベースが不明で、かつUSBケーブルなんかでつながっているわけでもないので、意味を完全に正確には相手に伝えられない。でも、そのおかげで会話が続くんですよね。
2011年にコーネル大学Cornell Creative Machines Labで行なわれた人工知能の対話実験落合: でも最近は、コンピューターでも同じことができるようになってきました。今までは言語と言語のグラフだけで連想していたんだけど、グラフじゃない連想があり得るようになってきた。イメージに飛ぶ、イメージの外観に飛んでから言語に戻る、そうなってくると人間的なブレストみたいなのを、コンピューター同士でやりだすはずですよね。それね、たぶんすごく面白い。
―― それって笑いとか驚きとか、ちょっと感動につながるようなことですよね。
落合: そうですね。ギャップとか予想外とか、最初はお互い分かっていなかった象のことが、どんどん分かっていくような。コンピューターがUSBでつながれば絶対に齟齬が発生しないようなことを、わざわざ齟齬を発生させた状態で会話させるようなこともあり得ると思います。
―― Siriがコントをするような感じでしょうか?
落合: そうそう、Siriのコントみたいな感じ。コンピューター同士のコントってすごく面白いですよね、会話がコントに見えるようなことはよくある。例えば、2011年に行われたコーネル大学のCornell Creative Machines Labの実験は、古い人工知能の対話問題なんですけど、これすごくロボット臭い。だけど、これはこれでかなり面白い。
僕たちは、どこまでが個別の僕なんだろう?

落合: 人工知能と人間の違いを議論するとき、一番ネックになるのが、スワンプマン問題(死亡した人物とまったく同じ形状・記憶を持つ人物は、死亡した人物と同じなのか? という思考実験)にどう向き合うかですね。
例えば、社会の中に位置づけられた存在としての自分と、そこにある意識的に連続体じゃない自分があります。そこであなたが死んで、次の瞬間にまったく同じように復元されるとします。そのとき「世の中から見れば、あなたは生きています」って言われたときに、多くの人は「いや、死んだ俺だけが過去と同一の脳みそを持っていて、次のやつと俺は連続していない。だから、あのとき俺は死んでいる」って言うんですよね。
でも社会から見れば同じ人間なので、それを全員が許容する社会になってくると、訳が分かんなくなっていいですよね。そうすると、もうちょっと人間が寛容になると思うんですけど。僕としては、結果的にそういう社会に移行するんじゃないかってちょっと思っているんです。
自己同一の問題のヒントになりそうなものとして、「銃夢」(木城ゆきとのSF格闘漫画。サイボーグの戦闘少女がさまざまな難敵と戦う)っていう漫画があるんです。主人公がガリィっていう女の子なんですけど、その子がくず鉄街で生まれてザレムという街に行くんですけど、ザレムの成人の儀式というのが、青年の脳みそを取りはずして中身をチップに変えるという作業なんですよね。そうすると一回脳みそ的には死ぬんだけど、チップに変わるから普通に生き続けるみたいな話。
でもそんなことしたら普通の人なら「お前死ぬからマジやめろ」って感じじゃないですか。だけどそれをやらないと市民権が得られない。そこで、そのガリィって女の子が「やめろー!」って青年たちを解放するんです。ところが青年たちが口々に「脳なんかいらないのに、将来を返してよ!」ってみんなで怒るんですよ。そういう感じがすごい21世紀的だなと最初読んだときに思ったんです。結構昔で90年代前半に連載されていたんですけれど。
ひとたび自己同一性を人類が失い始めると、多分全然違った世界に行くはずです。人工知能の次のキーワードとして、我々が個別の意識と信じているものは本当に1人の人間の意識なのか、人生ってどこに切れ目があるのかみたいなことを、考えていかないといけないと思います。
人間の生死に関わる問題については、まだかなりの抵抗がありますね。まして自分が死ぬか死なないかに関しては。ですから生死観に関わるような問題については、いろんな議論が出てくるはずです。
人工知能と社会について考える時、必然的に技術が介する人間と世界の関係や、人間の存在意義についての問いに行き着きます。それは、人工知能だけでなく、今急速に進歩しているバイオハックやバーチャルリアリティ(VR)についても同じことが言えるはずです。そういう意味で、2045年に訪れると言われている技術特異点(シンギュラリティ)は、ゆるやかに始まりつつあるのではないでしょうか。
「落合陽一さんインタビュー2:人間は『重すぎる身体』をもてあます」>> Next
目的と価値消失
#カルチャーはお金システムの奴隷か?
日本人が知らないカルチャー経済革命を起こすプロフェッショナルたち