講演では最初に淺井氏が参加者にアンケートを取りました。「人工知能が発達すると、人間が駆逐されてしまうのではないか」と考える「危機派」か、「人工知能によって人間の暮らしはますます豊かになる」と考える「のんき派」か、参加者はどちらなのか、という質問です。
淺井氏本人は「のんき派」で、危機感を煽るような報道に疑問を持っているとのこと。ですが、結果は7:3で危機派が多数。本講演には、こうした危機派が持つ印象を変えたいという狙いがありました。
シンギュラリティは本当にやってくるのか?
初めに取り上げたニュースは、社会的関心を集め続ける「シンギュラリティ(技術的特異点)」。2005年に人工知能の権威、レイ・カーツワイルの著書『The Singularity is Near』がベストセラーとなりました(日本では2006年にNHK出版から『ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき』として刊行)。
2014年には物理学者のスティーヴン・ホーキングが「人工知能の進化は人類の終焉を意味する」と発言して大きな話題になりました。著名人にもこのような危機派は多く、ビル・ゲイツも同じような意見を述べています。
シンギュラリティは2045年に訪れる、という説が有名ですが、淺井氏はそこに疑問を唱えます。『はじめての人工知能』でも取り上げている映画『2001年宇宙の旅』は、1968年の公開当時は実現性が高いと思われていた未来予測でした。映画では、宇宙ステーション経由で星間を移動し、人工知能の塊である「HAL9000型コンピュータ」が登場します。
しかし、48年後となる現在、映画で描かれた未来は実現していません。特に、宇宙ステーションは技術的には実現していてもおかしくないのですが、一般人にとってのニーズが低く、プロジェクトはあまり進んでいません。「人工知能を最優先課題として世界中で取り組めば、2045年のシンギュラリティも現実味を帯びてくるかもしれないが、(一般の需要を考えると)どうだろうか」と、淺井氏は言います。人間の知的活動は脳のニューロン構造だけの真似でできるものではないので、HALのような人工知能は難しいと思われます。
AlphaGoに人間が1勝できたことに敬服
次の話題は連日報道された「囲碁AI」。GoogleのAlphaGoが韓国のイ・セドル九段と対局し、4勝1敗の成績を収め、ディープラーニングによる優れた学習効果を世界に証明しました。しかし、これを「人間が機械に負けた、と騒ぐのは違和感がある」と淺井氏。「AlphaGoは理合いを考えているのではなく、過去の膨大な名人の手を学習して、そのとき勝ったからそう指しているだけ。研究成果としてはすごいことではあるが、人間と比べる必要があるのか」、「それよりも、こんな技術を前に人間が1勝できたことのほうがすごい」と述べます。
また、AlphaGoを開発したディープマインド(Googleが2014年に買収)のCEO、デミス・ハサビスが「この研究を、日々データと格闘している人たちがくだらないデータ集めをしないで済むように活用してほしい」とインタビューで語っていることも紹介。最先端の研究者が人工知能を人間のパートナーとして捉えていることを示しました。
人工知能は修正可能なプログラムである
話はGoogleの自動運転車の事故と、MicrosoftのTayのニュースに移ります。Googleの自動運転車は2009年以来、ずっと無事故でした。ですが、2016年2月、車線変更をした際に後方から来たバスと接触しました。MicrosoftのTayは、Twitterでユーザーとコミュニケーションをして言葉を学習していく試みですが、悪意のあるユーザーの差別発言を学んだ結果、暴言を連発するようになってしまいました。
この二つのニュースに共通しているのは、どちらも担当者が「プログラムを修正する」と述べていることです。「実際に作業にあたるエンジニアは人工知能というよりプログラムだと考えている。どんなに賢くなっても、あくまでソフトウェアだという認識は、誰もが持つべき」と先生は語ります。
ディープラーニングは予想外の「お宝」を見つけられない?
最後のニュースは、2020年度からセンター試験に代わって始まる新試験について。制度変更に伴い、マークシート式よりも採点に手間がかかるため、人工知能に採点させようという計画があります。これに対して、「公平性は保たれるだろうが、もし、出題者が意図していない、一見奇抜だがすばらしい回答があったらどうするんだろう」と疑問を投げかけます。
仮にディープラーニングを応用すると、「膨大な回答から多数決のような方法で採点基準を作ることになるだろう」。そうすると、「奇抜なやつは切り捨てられる可能性がある」。一般的な回答基準から離れているときは、一度人間に確認を取ればよいのですが、「実は、ディープラーニングは分からないという答えを出すのが難しい」とのこと。ディープラーニングは人間が学習のための評価基準を与えるのではなく、自分でどんどん学習していきます。そのため、学生の予想外の回答が「お宝」なのか「ただめちゃくちゃなだけ」なのか、判断するのが難しいのです。評価基準がブラックボックス化してしまうので、どんな場面でも使えるわけではありません。
ディープラーニングのニュースを見ていくと、本当にゼロから勝手に学習させるタイプのものは、どうも問題があるようです。淺井氏は「人間も勝手に学習するのではなく、家庭や学校で何が正しいのかを教わり、社会常識を積み上げていく。人工知能もそれと同じようにする必要がある。つまり人間が方向を示したうえで、分析した結果を人間が受け取るという形が望ましいのではないか。人間にはそうする義務があるのではないか」と訴えます。このような使い方であれば、確かに人工知能が人間と敵対することはなさそうです。
これからの人工知能との付き合い方とは
最後に、参加者と意見交換が行われました。ある「のんき派」の方は次のように発言しました。
――私はエンジニアだが、将棋や囲碁は手数を覚えるだけなので、たいしたことないと考えていた。あくまで知識の蓄積で、しかも善悪は人間が判断することになるなら、人工知能に理性はないんだろうと思う。全然恐れるようなものではなさそうだ。
淺井氏:もし人工知能が「意味」を理解するようになったら、話は変わってくる。昔からオントロジーという分野などで研究されているが、ただ、これはプログラムの書き方が非常に面倒。しかし、新たな表現法が生まれたら進歩するかもしれず、記号のマッチングを超えて理性を持つ可能性はあるかもしれない。何十年後かは分からないが、またいつか話をしたいテーマだ。
また、「危機派」の方からはこのような意見も。
――人工知能はソフトウェアだという話があったが、ほかのソフトウェアを解析して脆弱性を見つけ、攻撃するようなことがあるのではないか。
淺井氏:私も長年ソフトウェア開発に携わってきたが、言われてみると確かにそのくらいのことはできるだろう。実はプログラム自体を再構成するような遺伝的アルゴリズムの研究も進んでいる。しかし、脆弱性を自動で見つけて攻撃するソフトウェアができたとして、それを人間は放ったらかしにはしないだろう。人間の作るソフト同士の戦いになるのかもしれない。エンジニアとしては、それを上回る方法を考えていきたい。
ほかにも意見が交わされましたが、淺井氏は次のように話し、講演を締めくくりました。
淺井氏:人間は人工知能がよく分からないことをやっていると思ってしまうので心配になる。「冷静にソフトウェアとして捉えよう」と言ったことの意味は、ただのんきでいようというだけではない。人工知能の出した結論を鵜呑みにしない、という心構えが大切だと思う。