candc04676

「眼」を獲得したAIに起こるカンブリア爆発~人工知能は人間を超えるか?~

  • このエントリーをはてなブックマークに追加

by [2016年11月29日]

 2016年5月に放送されたNHKスペシャル「天使か悪魔か 羽生善治 人工知能を探る」では、囲碁の人工知能「アルファ碁」や、画家レンブラントの絵を模倣する人工知能など、最先端の人工知能が紹介されました。
 先日開催されたC&Cユーザーフォーラム&iEXPO2016では、その番組で最先端の人工知能をレポートしてきた将棋棋士の羽生善治氏(中)、NHKディレクターの中井暁彦氏(右)、人工知能研究者である東京大学大学院特任准教授の松尾豊氏(左)が、人間とAIの未来について語りました。モデレータは株式会社HEART CATCHの西村真里子氏です(以下敬称略)。

candc04676

人工知能の最前線

松尾 今起きている人工知能のブームは、歴史的に見ると3回目です。そして、何十年もできなかったことが、ディープラーニングによって、ここ数年で急激にできるようになっています。それは「認識」「作業の上達」「言語の意味理解」です。「認識」は画像認識のことで、もともとコンピュータにとって非常に苦手でしたが、昨年くらいから人間の精度を超えるようになりました。するとロボットや機械が練習して「作業の上達」をするようになり、さらに「言語の意味理解」ができるようになります。
 「認識」では、ヒョウ、コンテナ船、プラネタリウム、コアラの写真で、それぞれ何かを当てることで画像認識の精度を測ります。2012年にエラー率が10ポイント下がるという革命的なことが起こり、最新だと3.6%まで下がっています。人間でも5.1%間違うので、コンピュータが画像認識で人間の精度を超えた歴史的な出来事です。
 そうすると、機械が練習して上達することができるようになります。実際に、昨年5月にカリフォルニア大学バークレー校で、部品の取り付けを練習して段々上達するロボットができています。日本のベンチャー企業では、小さい自動車の運転を練習して、段々上達するということをやっています。
 「言葉の意味理解」では、映像・画像から言葉を生成したり、逆に言葉から映像・画像を生成します。今までは言葉の意味を全く理解せず統計的にやっているだけでしたが、最近は少しずつ言葉の意味を理解するものが出始めています。その1つに、ある写真がどのような写真なのかを説明することができる「Autmates Image Captioning」があります。さらにその逆の、文章を入れると絵が出てくる「Generating Images」もあります。これは画像を検索するのではなく描いているので、「A stop sign flying in blue skies.」と入れると、止まれ標識が飛んでいるようなありえない絵を描くこともできます。これはまさに我々人間が幼いときにお話を聞きながらその情景を頭に思い浮かべるのに近いことができるようになってきているということです。

西村 人工知能の将棋はどんどん人間に近くなっていますか?

羽生 今までは何億手読めるとか、何十万局データが入っているという足し算で実力を上げていました。最近は余計なことは考えないとか、ここは読みを打ち切って方向転換したほうがいいという引き算的な発想も思考の中に取り入れることができるようになりました。そして、今は法律を学んでいる方や化学系の方など、多くのジャンルの優秀な方が参入してきています。強いソフトを作るときに必要なのはコンピュータやプログラムの知識なので、対象そのものの専門的な知識は必要が無い可能性もあると思っています。なので、棋士だから強いプログラムを作れるわけではないと思うので、専門的な知識が無いとプログラムを作ることができないことはないと思います。

松尾 このような変化が起こると、産業や社会でも様々な変化が起こると思います。「認識」ができるようになると、医療画像のCTやMRIを見て診断することが自動でできるようになったり、防犯や監視も性能が向上すると思います。「作業の上達」ができるようになると、自動運転だけではなく、物流・建設・農業の自動化あるいは介護・調理・掃除などもできるようになります。「言語の意味理解」まで行くと翻訳やホワイトカラー支援もできるようになります。あと4~5年で全部できるようになるかもしれません。

西村 すごい勢いで人工知能が進化していますが、何を見ていれば常にアップデートされた情報を得られますか?

松尾 世界的には「アルファ碁」を作ったDEEPMINDやグーグル、フェイスブック、あとはトロント大学やモントリオール大学あたりはレベルが高いです。DEEPMINDみたいな企業はいい研究者・技術者がいて、そこがまた魅力になってどんどん新しい人を引き寄せているので、そういう拠点を注目していくのもすごく重要だと思います。特に自動運転や物流・建設、防犯・監視といった機械やカメラが関連する分野は、日本が非常に強いので、新しい技術を素早く取り入れて、製品にしていけば十分戦っていけると思います。

人間の心を学ぶ人工知能にクリエイティビティはあるか

nhkondemand

NHKスペシャル「天使か悪魔か羽生善治 人工知能を探る」。現在はNHKオンデマンドで視聴することができる

西村 今回のNHKスペシャルでは、人間の心を学ぶ人工知能を研究しているタフツ大学を取材していましたが、これは先ほどの画像認識を突き詰めた先とはまた別のアプローチなのですか?

松尾 そうですね。感情や本能をモデル化しようとしているのだと思います。そういう研究は昔からありますが、人工知能が社会で使われるようになった中で、一段と重要性を増しています。例えば、困っている人を見ると助けたくなるのは、進化の過程で人間の競争力が互いに協力して敵と戦ってきたところにあります。そういう本能を人工知能で同じ振る舞いをするようにプログラムする感じだと思います。

西村 人間が人工知能と共存するためには何が必要ですか?

松尾 例えば、人間の運転でも自動運転でも事故は起きてしまいますが、自動運転だと許せない感じがするのは説明や弁解がないからなんです。なぜ事故を起こしてしまったのかという説明があると、納得性が上がって許容できる度合いが高まると思います。これは人間の本能として、相手のことを理解したり共感しようとしてしまうものなので、こういう本能を上手に理解しながら、人工知能を社会の中で役立つように使っていく必要があると思います。

中井 タフツ大学のほかにも、人工知能がレンブラントの作品を分析する「ネクストレンブラント」プロジェクトと、研究者のサイモンコルトンさんが創った人工知能の画家「ペインティングフール」も取材しました。ネクストレンブラントは、たくさんの肖像画をデジタル化して顔のパーツや向き、プロポーションを学習させることで、性別や年齢、鼻や目などの要素を指定すると、人工知能があたかもレンブラントが描いたような絵を描くことができるようになります。ペインティングフールはそのときの気分で絵を描きます。非常に気分屋で数分おきに気分が変わるので、その都度違う絵が出てきます。

西村 人工知能に肖像画を描いてもらっていかがでしたか?

羽生 ペインティングフールは絵を描いてくれるかどうかも気分次第なので、結構気難しい芸術家みたいなところはありました。絵の出来栄えも、自分で文章に書いて評価してくれるので、画家から1つの作品を書いてもらった感じでした。

西村 すでにアメリカでは新聞のスポーツ欄に人工知能がその日のスコアを出したりしています。人間はクリエイティビティを活かすべきだと言われていましたが、人工知能はクリエイティビティを身につけていくのですか?

中井 アメリカでは、スポーツなどで、読者によって記事を書き分けることができる人工知能を採用しているところもすでにあります。

松尾 例えば、人間はその記事が良いか悪いかを判断することができますが、コンピュータにはできません。感動させるかどうかや、美しい絵かどうかみたいなところは人間が進化的に獲得した価値基準を使って評価しているので、そこをコンピュータで真似するのは非常に難しいです。なので、評価は人間にしかないから、本当の創造性は人間にしかないと思います。だけど、よくあるものを真似するとか、たくさんのデータからパターンを見つけ出すのはコンピュータが得意なので、ありがちな絵を描くとか記事を書くのは人工知能でいくらでもできると思います。

「学習工場」構想

松尾 生物の進化の歴史の中でカンブリア爆発という、5億4200万年前~5億3000万年前の非常に短い間に、現存するほぼ全ての種が出揃った時期があります。その理由の1つが「光スイッチ説」です。生物は眼を持つと捕食の確率が上がりますし、逃げる方も多くの戦略が出てくるために、生物の多様性がいきなり上がったということです。そして今、人間の網膜にあたるカメラと、視覚野にあたるディープラーニングによって、コンピュータに「眼」ができたので、機械やロボットの世界で今後、カンブリア爆発が起こることになります。すると多くの分野で、今まで眼がなかったからできなかった仕事がどんどん機械化されていきます。こういった分野を日本がきっちりと押さえて強みにできるか、こういう機械を生産できるかが課題だと思っています。
 その上で「学習工場」を作る必要があります。これは、ドメインにあわせた認識をする学習済みモデルを生産する工場です。この工場に必要なのは、人とデータと計算機です。これらに日本の製造業が数十億~数千億円規模で設備投資すれば、十分世界で戦っていけます。

西村 GitHubに上げることで世界の人に参加してもらったり、1社ごとに専門のドメインを作ったり……どんなアプローチが良いですか?

松尾 将棋や囲碁の場合は、データやアルゴリズムを共有することができますが、医療画像は共有できません。しかも医療画像の場合は「これは癌」「これは癌じゃない」というタグをたくさん付ける必要があります。こういうタグの付いているデータをたくさん持っていれば持っているほど、学習済みモデルの精度は上がるので、データを作る競争になっていきます。それを医療のほかにも、農業などのいろいろな領域でやっていかないといけません。ただ、データを学習するアルゴリズムは共有されているものを使えばいいと思いますし、計算機はNVIDIAなどのGPUの載ったサーバーをいろいろ使えばいいと思います。

西村 データはある程度揃い始めているのですか?

松尾 目的によると思います。トマト収穫ロボットを作りたいときに、このトマトが採っていいトマトなのかというデータはまだありません。それぞれのドメインで必要なデータをちゃんとタグが付いた形で用意しないといけません。なので必要な物に応じてそのデータをとったり、タグをつけたり、加工したりという処理が必要になる領域が非常に多いと思います。

人工知能と共存していくために

西村 これからは教育も変わると思いますが、人工知能と一緒の時代にどういう形で学んでいくとよいですか?

中井 昔の取材の仕方は、本を読む、新聞記事を読む、電話で聞くというものでしたが、今はインターネットにあふれる情報があって、電子メールもあるので直接お会いしなくても得られる情報が非常に増えてきました。ただその中で、何がテーマなのか、自分の中で本質はこうなのか、と考えることは昔も今も変わらないことだと思います。だから道具が変わったことに振り回されずに、僕たちの世界で言うところの本質から外れないためにはどうしたらいいのかを考え続けることが大切だと思います。

羽生 AIはデータが無いと学習できません。ということはデータが無い、人にとっても未知なものに関わったり挑戦することが大事になると思います。あと、今回中井さんと一緒に人工知能の番組をして一番勉強になったのは、それぞれの現場を見ることと、ずっと長い時間話をしてきたことです。だからどんなに情報が増えても、人と話をして理解を深めたり進歩したりする点はあまり変わらないと思います。

松尾 数学や国語などの試験を受ける今の受験は、人間がたくさん持っている能力を5個とか10個に次元削減して、その能力を測ることだと思います。ところが、それは50年以上前にできた仕組みなので、今の社会で必要な能力をちゃんと調査して、もう一度定義しなおすことが必要かと思います。さらに言うと、次元削減しなくても、ビッグデータを使えば、人の能力をそのまま評価して、その人にマッチした仕事を提示できると思います。

西村 人工知能と共存していくには、人間として何を大切にするべきですか?

中井 今年はコミュニケーションロボットがだんだんと家庭に入ってきて、そのロボットは100万台売れると、分散学習で100万通りの経験をすることで100万倍の体験ができます。また、人工知能が予想したことにただ従うだけではなくて、気まぐれにやってみたり、失敗してもいいからやってみたりする勇気やチャレンジスピリットがますます重要になると思います。

松尾 短期的には、ロボットがカンブリア爆発を起こすので、日本企業がここをとれるかどうかが非常に大きな分岐点になると思います。日本の製造業にとってまたとないチャンスなので、なんとかここをモノにできないかをいつも考えています。認識や行動の習熟はできるはずなので、例えば外食産業はいずれ全部機械化して、集合住宅などには調理ロボットが入ります。NECさんなどの大企業がクライアントの企業と一緒に大きく変えていけるかが非常に重要なので、是非そういうイノベーションを起こしてほしいと思います。

羽生 今ある大量のビッグデータはこの先、マクロでの人の動きや行動を予測できるようになりますが、ミクロの1人1人が何をするか、何を選ぶかはどんなに進歩しても予想できないでしょう。なので、これから先AIが進めば進むほどアイデンティティや個人としての活動や動きが大事になると思います。

▼参考リンク
NHKスペシャル「天使か悪魔か 羽生善治 人工知能を探る」
ネクストレンブラント
ペインティングフール
羽生善治|棋士データベース|日本将棋連盟
東京大学松尾研究室
HEART CATCH
C&Cユーザーフォーラム&iEXPO2016

タグ:
PageTopへ