8月29日に株式会社Speeeのラウンジにて、三宅陽一郎による著書『人工知能のための哲学塾』の刊行記念イベントが開催された。
すでに人口に膾炙し、ビジネスメディアでもバズワードとして扱われるようにすらなった人工知能というトピックを哲学の観点から考察する場は少ない。だが、当日はビジネスマンを中心とする多くの聴講者が集まり席が埋め尽くされた。人工知能に関する情報があふれ、さまざまな解釈や予測がなかば錯綜しているなか、情報の選別や判断の指針が求められているのではなかろうか。
イベント前半は著者である三宅陽一郎による講演。過去300年の技術革命の歴史から人工知能のビジネス可能性まで、幅広い話題が共有された。
私はこれまでゲームを作ってきて、傍らで執筆もしてきました。単著はこちら(『人工知能のための哲学塾』)が最初ですけれど。12年間ゲームの人工知能を作ってきました。もともとは数学や物理を研究して最後に人工知能に行き着くという、ちょっと変わった経歴でした。
自律的に学習するAIをゲームに導入する

最初にゲームAIの話を少しだけします。強化学習というのは、人間が教えなくても環境の中で自律的にAIが学習していくことです。このようなAIを最新のゲームに入れようという研究があります。たとえば、格闘ゲームの『Tao Feng』(Studio Gigante、Microsoft Game Studios、2003)を使ってAIで動くキャラクターがプレイヤーと闘う場合をシミュレートします。キックやパンチ、波動といった攻撃のうち、どの種類の攻撃が一番効くのか最初は分かりません。これらをランダムに出していきながら学習をし、一番相手にダメージを与える攻撃が当たるようにしていくのが、強化学習です。
最初はランダムに技を出すだけなので、ぜんぜんうまくいかないけれど、ある瞬間に、ある速度、ある場所で技を出せば大きなダメージを与えられるという事象が起こります。これを学習します。これを何百何千何万試合とやることで、うまくいくパターンをだんだんと覚えていくのが強化学習です。回数を増やしてうまくいくさまざまなパターンを見つけるまで人工知能は待つことができます。今ご紹介した例では、とてもたくさんの試合をして学習しています。おそらく学習効率を上げるために数百回で足りなければ、数千、数万の試合をする必要があります。それだけプレイするための何回100円玉をアーケードゲームの筐体に入れるんだよ?という話です。もはや人間は太刀打ちできない。AIというのは、最初はバカだけど、継続的に人間のパターンを学習し続けることで賢くなるわけですね。

今ご紹介した例では、プレイヤーのHPがどれだけ減ったのかを指標にしましたが、今度は逆に、自分のHPが、どれくらい減らないかを学習の指標にします。適当に逃げているうちは結構やられています。でも、うまいこと避けられる瞬間が、何回もやっているうちに出てきます。HPが減っていないという指標があるので、このパターンが「よかった」とAIにフィードバックするんですね。そうすると、見事に避け続けるようになります。これもゲームセンターなんかの何千何万試合というログを全部取っておいて解析して学習するとか、色んな学習の仕方があります。
ですが、うまく避けてばかりいると面白くないので、さっきの攻撃を学習したヤツと、防御を学習したヤツを入れ混ぜながら作るのが実際のゲームAIの作り方です。こういう風に、人工知能技術というのは、人間の膨大なデータからエッセンスを抜き出すというところに、本質のひとつがあります。ゲームでもそういうことができるわけです。
もともとグーグルは人工知能のベンチャーだった

ちょっと大きな話になりますけれど、なぜ今人工知能技術が注目されているのかということを説明したいと思います。この300年で色んな技術革命がありました。
産業革命から、第二次産業革命、オートメーション化、電動化、電子情報化、オンライン化、そして知能化というのが今の時点です。まず社会の上に、機械というレイヤーができ上がって、その上に情報処理レイヤーというのがあって、最後に人工知能レイヤーというのが現れつつある。
つまり、いきなり人工知能が現れたわけではなく、この20年にわたる情報化社会が飽和した後に、その上位レイヤーとして人工知能というのができる。人工知能の時代は、その前段となる電子情報化とオンライン化がなければ、存在しなかったということを覚えておいてください。
人工知能の開発には2つのアプローチがあります。たとえば今見ていただいたように、キャラクターAIやロボットというのは、丸ごと一個の人工知能を作ります。丸ごと一個の人工知能は体を持っていて、環境があってそこで活動する。我々が最初に思い浮かべる人工知能というのは、そういう人工知能ですね。SFとかアニメに出てくるような。実はそういう分野は少なくて、ゲームとロボットしかありません。
もうひとつは、すでにあるものを知能化するというアプローチです。たとえば家電を知能化するとか、電車を知能化するとか、ポスターをデジタルサイネージにするとか、何でもですね。こういうのを「知能化」と言います。そういうものが社会の隅々にまで実装されていこうとしているのが、今の段階です。

ちょうど20年前ぐらいに色んなものが情報処理の対象になりましたが、今度はそれに上乗せして色んなものが知能化しているわけです。情報処理から人工知能へということですね。家電のような物だけでなく、サービスも同じで、これまで単なる情報サービスだったものが、どんどん知能化しています。
ソフトウェアの知能化って、人工知能の歴史の中でどういう経路を辿ってきたかというと、最初はたとえば1、0といった数値の処理だった。その次に記号とか言語を扱えるようにしようとなりました。さらにそれまで扱ってきたのが人工言語だけだったのを、今度は人間が扱うような自然言語も扱えるようにしようと。
次に、自然言語は単に「リンゴが青い」といった文脈だけでなく、「リンゴは果物だ」とか、車については「車という一般概念」があるという具合に、意味を解析しようとしています。
さらにもう少しいくと、たとえば法律や条令といった法律に関わる概念がたくさんあるけれど、それってどう体系立てられているの?といった、概念の体系化をしていきます。それを考えるのがオントロジーと言われる分野です。

ところが、ネット空間の中で膨大な情報がネットワーク上にたまっていくことで、人間がそこに直接アクセスすることが、ほぼ不可能になってしまいました。そこで人工知能が間に立って、人間と情報の海の間をつなげてくれるわけです。それが、皆さんが使っている、検索エンジンと呼ばれるものなんです。
グーグルという企業は、大学の研究室における研究から始まって、初期は情報解析の人工知能を作っていました。それに検索エンジンというインターフェイスをつけて、人間と情報の空間をつなぐ事業をすることで大きな企業になったわけです。もともとは、人工知能のベンチャー企業だったんです。
人工知能はネット空間から実世界にはみ出してきている

これまで人工知能は、どんどん人間側に寄せてきたという歴史があります。なので、今の検索エンジンは記号処理ぐらいですけれど、「このシロクマというのは動物のシロクマのことを言っているんだよ、商品の名前の方でないよ」」というセマンティック解析も実はグーグルの検索エンジンに入っています。いずれはオントロジー検索みたいなのも、できるようになるでしょう。人工知能は、データーベースの中でデータを咀嚼することで、人間がアクセスできない情報を人間が解釈できる情報、つまり検索しやすい形にしているんです。
ネット空間のデータを構造化しています。たとえば検索エンジンを持っている会社のデーターベースというのは、単に記号の列がしまってあるわけではなく、データとデータをリンクするネットワーク構造を入れて整理することでデータを人間のために咀嚼した形でストレージしているのです。
また、人工知能自身も情報の海によって進化していくことで、人間に近い概念というのを扱える段階まで来ているわけです。ただ、本当にその概念を理解しているわけではなく、概念の関係性を理解しているといえます。
記号からさらに発展して、最近は画像とか、画像の意味や概念を理解するための人工知能の分野があります。画像というのは記号ではないので、普通のプログラムでは処理できない。この分野ではよくニューラルネットワークという脳の回路を模した技術を使うんですけれど、その発展系のひとつがディープラーニングと呼ばれるものだったりします。これによってより詳細な映像の意味や、そこに何が映っているのかを解析できるようになります。こういう風に人間側に寄せるということが、画像でも映像でも可能になってきたのが最近の人工知能の動向です。
こういった学習のための記号・画像・映像・音声情報というのは、80年代には、ほぼありませんでした。なぜかと言うと、そういったデータを収集するデジカメや携帯電話があるわけではなく、さらにインターネットそのものがそこまで発達していなかったからです。ところが最近は、みんなが写真を撮ってアップロードしたり、書き込んだり、Wikipediaを作ったりしているので、今はたくさんの情報がインターネット上にあります。今第三次ブームと呼ばれている人工知能は、我々が蓄積してきた情報の海を母体として生まれているのです。
ですから『攻殻機動隊』(士郎正宗、1991)のような話は別にウソではないということです。そういう風に、人間の作った情報空間を解釈する人工知能がどんどん出てくることで、現実空間にはみ出してきているのが今です。

今のキーワードは実世界思考と呼ばれるものです。00年代の最初はインターネット上で人工知能を動かすことを目指していましたが、それから15年経った今は、現実世界の上で人工知能に体を持たせて現実に出ていかせようとしています。体といってもロボットのようなものだけでなく、ドローンやデジタルサイネージといった、現実に接している何らかのハードウェアを持って世界にはみだして行こうとしています。
インターネットのビジネスの競争が始まってから、もう20年も経ち、ネットワーク空間のサービスは、ほぼ飽和しています。インターネット空間における人工知能ビジネスというのも、ある程度の成果が出てきている
ならば次は、現実空間にネットワーク空間を利用して出ていきましょうというわけです。昔のロボットやドローンと違って、今のロボットたちは、Wi-Fiもあるし、クラウドもあるので、オンラインにつながった形で動かすことができます。昔よりも圧倒的に問題解決能力が早いし、正確だし、知識も多いのです。
今はIoTやセンサーを通して、すぐに現実の情報を集められます。現実空間とデジタル空間の境界のクラウド上に人工知能がいて、このクラウド上の人工知能と連携する形でさまざまな現実空間にAIたちが進出しています。
最近グーグルやフェイスブックといったIT企業がロボットやドローン、VRを自社の研究課題に入れているのは、実世界思考の表れです。ネット空間ではサービスが飽和してしまっているので、もう一度ネット空間から現実空間に回帰しようとしているということです。
もっと大きな話になると、「スマートシティ」という話があります。街全体を制御する人工知能ですね。たとえば、街全体のカメラやセンシングで情報を集めて、街の状況やエネルギーの状態を把握して制御するという話です。もう少し身近な例で言うと、家を制御する人工知能というのがあります。どの部屋に誰がいて、今その部屋がどういう温度で、どういう状態かをリアルタイムで把握できます。セキュリティも安心だし便利だし、冷蔵庫に何が入っているかも分かる。
これまでの人工知能はゲーム空間とかネット空間とかにずっと閉じ込められていたんですけれど、センシングデバイスの進化によって、現実空間にはみ出して、現実空間をオーバーレイし始めています。そこを介して社会に出て行っているというのが、現在起こっていることです。今はちょうどデジタル空間と現実空間にまたがる巨大な人工知能を作り出そうとしている時期なのかと思います。そのためにクラウドとネットといった大きなインフラが必要になってきます。
というわけで、最初のまとめは哲学的でなくて申しわけありませんが、現実空間と情報空間がリアルタイムに同期し始めていると。ということは、ネット空間と情報空間がオーバーレイしている空間として人工知能が現実空間に出てきているというのが、今の動向であります。
さらにネットの空間と現実空間を自由に行き来できるので、現実空間とデジタル空間の双方にまたがる人工知能というのが、作りやすくなっています。たとえばスタジアム。サッカースタジアムを上からカメラで見ていることで情報を取れるし、スタジアムにいる人たちがTwitterやFacebookに投稿している内容もトラッキングできます。そのスタジアムが今どんな状態にあるのかを、双方から確認できるわけです。さらに、それを大きなスケールでもできる。国全体とか世界全体とか。
そういう風にクラウドがAIによって現実空間とデジタル空間の中継基地みたいな役割をこれから果たしていくのだと予想されます。
人工知能がブームになる3つの理由

ちょっとここで、人工知能の歴史を振り返りたいと思います。人工知能は今、第三次ブームと言われています。じゃあ、第一次と第二次はいつだったのよ?といえば、大体60年代と80年代になります。この3つがどう違うのかということを理解しておくことが重要かと思います。
その前に、人工知能はなぜブームになりやすいのかという理由が3つあります。それは、「広範さ」と「脆弱さ」と「近さ」。まず「広範さ」について説明します。人工知能というのは結構あやふやな分野で、何が人工知能かと問うと皆違うことを言います。見方を変えれば、人工知能の範囲をどこまでもふくんでもいいことにもなります。
たとえば、80年代はオペレーションシステムまで書き込んだものを人工知能と言っていました。今はディープラーニングから、検索エンジンから、ロボットまで色々ふくんでいる上に、文脈がいっぱいあるので、一回火がつくと何もかもが人工知能とみなされます。「ビッグデータとか、これまで人工知能って言っていなかったじゃん!」というものも、今だと「あれは人工知能です」という話になってしまうんです。聞こえがいいし、そうとらえた方が分かりやすいよね、ということであります。
次に「脆弱さ」というのは、まず人工知能という分野には基礎がありません。権威と言われるような先生たちに聞いても、皆違うことを言います。皆自分の研究が主役だと思っているので、ある人はニューラルネットワークが主役だと言うし、ある人は解析エンジンが主流の研究だと言うし、ある人はレコメンドエンジンだと言います。
人工知能の基礎というのは空虚なんですね。知能って何かなんて誰にも分からないんです。だから弱いし、いったん加速がつくと、それを止める人がいなくなります。あと「近さ」ですが、人工知能って人間のアイデンティティに近いので、それが揺さぶられることが多いということですね。自分自身と関係があると。
哲学は人工知能を作る足場である

人工知能には3つ側面があって、人工知能ってサイエンスなんだけど、同時に人工知能を作るというエンジニアリングでもある。同時に「知能とは何か?」を問う哲学でもある。その真ん中に人工知能があり、3つそれぞれの方向に広がりがあります。
哲学の方向は地味なのですが、なぜそのような本を書いたのかと言うと、人工知能を作るための足場として哲学が非常に重要だからです。人間の内面にいくと、一般のサイエンスと違う足場が必要になってくるので、そういった足場を書きたいということでした。
先ほどの繰り返しになりますけれど、人工知能には中心がないので、すべては非常に仮想的に作られています。「たぶん知能って、こういうものなのだろう」と。
生物学でこういう発見があったとなれば取り込むし、遺伝子というのがあれば、遺伝子を取り込むし、宇宙生物の仮説が出ればそれを取り込む。実は境界が曖昧で、どこまでが人工知能技術かという境がはっきりしていません。そもそも人工知能のオリジナル技術って本当に少ないんです。そのくせに、他の分野との接点が多く、それらをうまく利用して、自分自身を作っています。
人工知能を研究する方法は、実は色々あって、サイエンスから「知能とは何か?」というところから入って工学に向かい、具体的な製品を作るというアプローチ。あるいは哲学から入って、工学に抜ける方法。あるいは科学から入って哲学に抜ける方法。こんな風に色んな経路があって色んな科学と工学と哲学が相互に刺激しあって発展していくのが人工知能という学問分野だったりします。

また、外向きに知能を作ろうという方向と、逆に知能とは何か?という本質をつかむという2つの方向があります。人間の無意識の中にある言語回路が、感覚から入ってくる色んな情報を言語化することで思考が可能になるというのが、言語による精神の構造化です。
それを最初に言ったのがフェルディナン・ド・ソシュール(1857-1913)という人です。言語ならぬものが、言語になるという構造があり、やがて意識が形成される。つまり、言語によって世界を分節化してとらえているという話があります。
西洋の人工知能は、人間が意識的にしている思考や判断を研究してきました。もう少し最近になると、生物が持っている身体や生態的な関わりの中で生まれる人工知能が出てきます。これが、生態学的人工知能と呼ばれるものです。ゲームはこれを応用して作られます。たとえば欲求や習慣、身体性など。
生物の進化の過程でも、環境と身体が相互に関係していきます。たとえば六本足の動物がいたとして、それは彼らが生息する泥の中を歩きやすいという環境的な要因に合わせて、その場へ来て生息し、生き延びた結果そうなっている。「六本足がいい」という理屈からそういう姿になったわけではないんですね。

機械も外部から色んな情報が入ってきます。ゲームでもそうですけれど、色んな雑多な情報をいったん記号化して、体系化して思考する形になっています。機械の場合はマシンがあって、ソフトウェアがあって知能があるんですけれど、生物の場合は身体があって機能があって、知能がある。
第一次AIブームというのは、そもそも人工知能が立ち上がったばかりの、どちらかというと研究者コミュニティの中のブームでした。第二次ブームというのは80年代。小型化されて社会に導入されていきますが、この当時人工知能は怪しい分野だと思われていました。色んな先生の話を聞くと「人工知能をやるやつは...」なんてことが言われていましたね。
そもそも日本の人工知能学会ができたのが1986年なんです。それまでは学会すらなかったってことですね。そして現在の第三次人工知能ブームは、情報化社会、ネットワーク化社会が一巡した新しい段階として人工知能を育てようとする段階にあります。

第一次ブームになくて第二次ブームにあるものは、コンピュータの進歩。第二次ブームになくて第三次ブームにあるものは、データの蓄積です。インターネットが第二次の時はなかったので、第三次ブームを支えている大きな要因がデータというわけです。
データがなければ人工知能は自律学習できない
今話題になっている、「協調フィルタリング」「IBMワトソン」「AlphaGo」「医療用診断データベース」について考えてみます。
まず、「協調フィルタリング」。協調フィルタリングは、たとえば皆さん、アマゾンのレコメンドが来ますよね。あれ、どうやっているかというと、たとえば皆さんが映画A、B、Cに対して、それぞれ5、1、4という評価をつけたとします。そうすると、これと似たような評価をしている人を母集団から探してきます。その人がMという映画を高く評価していたりする。ならば、皆さんもその人と趣味が近いので高い評価をするはずだから、Mという映画を推薦すれば多分買ってくれるだろう、というのが「協調フィルタリング」です。これはデータがあったので、推薦ができるわけですね。
「IBMワトソン」は、ネット上の色んなWiki、百科事典のデーターベースを学習しています。たとえば「リンゴ」という言葉がふくまれる文章のパターンをずっと学習します。するとリンゴという言葉に関連づけて「赤い」という単語が頻度多く表示されるので、「リンゴは赤いよね」と返すのが、IBMワトソンのやりかたです。これもデータベースありきですね。
あと「AlphaGo」。AlphaGoというのは、人間が蓄積した碁の手をそっくりそのまま学習します。これを全部学習した後は自分で対戦して棋譜をためて、これを勝つように打てるよう調整していきます。これもデータありきのニューラルネットワークによる処理で動いています。

これをデジタルゲームに応用したのが「Deep Q-Learning」です。これはアタリのゲームで、点数と操作方法を与えると冒頭でお話した強化学習とまったく同じ仕組みでプレイできるようになります。
学習する人工知能は、人間には扱えないような巨大なデータから、人間では気がつかない特徴を学習します。さらに人間の解釈を通過することなく、直接サービスやアクションを展開します。たとえばアマゾンのレコメンドについて言えば、アマゾンの社員は我々に何をレコメンドしているかいちいち確認するわけではありません。勝手に人工知能が推薦していますから。ユーザーがデータをためて、AIが解釈して、さらにユーザーに戻す。ここに人間は介在していないわけです。
スマートシティ構想というのは、これと似ていて、AIが街全体を監視して、それに対して他の色んなデバイスを使ってサービスを展開します。さらに街全体の中枢を制御する知能を作っていきます。人工知能はアプリケーションだと考えられて来ましたが、次の世代ではおそらく社会インフラになります。社会インフラになることで新しい市場ができるため、色んなIT企業がロボットとかドローンを引き連れて参入するのが現在のシナリオになっています。
人工知能は、人間には見えないものを見ます。人の流れ、犯罪がどこで行われているか、事故現場の発見や紛れ込んだ犯罪者の発見など。今ミクロな単位で犯罪やテロが起きていますが、その特定の人物を見つける、あるいは予測するということができます。
人工知能は人間を理解しているわけではなく、人間たちの統計的な特徴を見つけて行動します。ならば人工知能に、人間の何をどこまで理解させて展開するかというのが、問題になってきています。主に2つの軸があって、ひとつは人間をどこまで深く理解させるか、あるいはどれくらい多様に理解させるかということで、色んな領域があるわけです。
ところが、人間の内面の深みに入っていくためには、人工知能自体が深みを持つ必要があります。表面的なサービスを脱して、人間の感情や意図をくみ取れるようにするためには、より深い人工知能への理解が必要です。つまり、深いところまで人工知能を作ろうとすればするほど、大きなビジネスチャンスも得られるようになります。そこで哲学が必要となります。
「人工知能のための哲学塾」はそのような問題意識から始めた勉強会でした。なぜこういうことをやったかというと、人間の外側を知る自然科学は、デカルト的な世界観、機械仕掛けの世界観にもとづいているからです。
ところが、このデカルト的な世界観で人間の内側を説明しようとすると、実は足りません。足りないし、色んなものを取りこぼします。そのために新しい哲学が必要で、それを作ろうとした人が1900年前後にたくさん出てきます。それが書籍の『人工知能のための哲学塾』にも収められている人たちです。

たとえば第一夜でテーマにしたフッサールは「自分と他者」というデカルト的な分け方をやめようと言いました。まず経験というものがあって、その経験の中から自分と相手を定義していこうよと。つまり、いきなり対象があるのではなく、まず最初に経験があると。これによって、色んな人間の主観性というものを、描けるようになる。

第二夜で紹介した生物学者のユクスキュルという人は、生物の持つ主観的な世界をとらえようとしました。生物は受け取る情報からどんな行動をするかという身体的判断をして環境にフィードバックさせるという見方です。それを環世界と呼びました。私はキャラクターAIを作るときは、これを心がけています。

第三夜はデカルトに戻って、デカルトの後継者のライプニッツ...後継者というか本当は対立しているんですけれど。でもライプニッツは、人間の思考というのは記号操作によって表されるはずだということを約300年前に言ったわけですね。それが今のプログラムや初期の人工知能に深く関わっています。

デリダという人は、言葉というものは自分を対象化して見る、つまり我々は自分自身の意識というものはありますが、それがどこから来ているかと言うと、一瞬前の自分の存在による「差延」を作り出さなければならないと考えました。意識というものはデリダの言う「差延」という概念を使うとよく説明できます、というのが第四夜でした。

第五夜は身体性の話です。なぜ身体性を持って来たかと言うと、現在のゲームキャラクターには身体性がない。つまり、キャラクターは動いてはいるのだけど、自分の身体という感覚がないわけです。それはユーザーにも伝わるわけですね。張りぼてが動いているように見えてしまうんです。
身体性を入れるにはどうするかと言うと、人間には4つの運動のレベルがあって、これによって運動というのはすべて生成されているんだということをベルンシュタインという人が言いました。
このAからDまでの順番が、生物の進化の順番とまったく一致しているということも言えます。ただ、彼はロシアで反体制的な存在になってしまって、本が発禁処分になってしまいました。90年代になって、ようやくベルンシュタインの本が出版されて今に至ります。
最後になりますが、人工知能が人間を理解すればするほど、さまざまなサービスの展開が可能で、かつ人間も人工知能に共感しやすくなります。「なんでお前、そんなことまで分かるの?」って。レコメンド機能もそうですが、人間は人工知能が自分を理解してくれればくれるほど嬉しい。
人間の内面を知る技術は進歩していて、そこに至れば新しいサービスが可能になるんですけれど、そういう技術ほど人工知能分野では、非常に高度で難しい。この哲学塾のように、深い深いところまで入っていかないと、実現できないということになります。というのが、私の講演でありました。ありがとうございました。
目的と価値消失
#カルチャーはお金システムの奴隷か?
日本人が知らないカルチャー経済革命を起こすプロフェッショナルたち