![]() |
2014.08.27 Wednesday
シンギュラリティ
ロボットの技術がどんどん進んでいるが、それには人工知能の技術が大きく関わっている。
pepperにしても、MITのロボットにしても、カメラで人間を認識して、視線を合わせることできる。 そして、意味のある会話をすることができる。 それは、人間の顔を画像として認識できるからだろう。 まだ人間の顔は認識しやすいと思う。 動物よりは変わっているからだ。 しかし、ネコの顔になると難しいだろうと思う。 イヌとは似ているが違うし、ほかの動物にも似ているのがいる。 目の大きさと顔の大きさの比率とか、顔の形とか、そういうものに着目して判断させてもなかなかこれはネコだ、という判断はつきにくい。 しかし、日経によると「2年前にグーグルがスタンフォード大学と人間の脳を模したコンピューターに無作為に選んだ1千万枚の画像を3日間読み込ませたところ、自力で「猫」を識別するようになったと発表し、世界を驚かせた。自ら学んで問題を解決するAIが実現すれば、利用者の意図をくみ、より適切な答えを提供できる。」とのこと。 これはすごいことだ。 コンピューターが1千万枚の画像を与えただけで(1千万枚は多いとは思うが)、自らネコの顔を識別できるようになった、ということは、人間の困った顔や怒った顔や泣いた顔などを何千万枚か読み込ませれば、困っているか、怒っているか、泣いているかがわかるようになるかもしれない、ということだ。 また、ビッグデーターという、その名のとおり大量のデーターを扱えるようになって、さらにかしこくなった。 IBMのワトソン研究所が作った「機械学習を採用した質問応答(Q&A)システム」を「ワトソン」という。 ここでやっているのも、大量のデーターからコンピューターが勝手に学習して、答えを出すということらしい。 ワトソンは「2011年に米国の人気クイズ番組「ジョパディ」で人間のクイズ王に勝利したことで知られる。大量の文献を読み込み、内容を理解することで、質問の答えを自動作成する。」というかしこいコンピューターだ。 これが進むと、「機械学習を応用すると、人間を超える判断力や知性を身に付けたプログラムが開発できる。人間の行動履歴を分析することで、多くのプロフェッショナルの「勘」や「直感」をモデル化できるからだ。このモデルを使えば、人間にしかできないと思われている「プロの仕事」さえも、プログラムによって代替可能になる。」ということだ。 これはエライことだ。 もはや、いいことなのか、悪いことなのかわからない。 人間の考える仕事を代わりにできるようになる。 おまけに、人間よりも優秀だ。 英語でシンギュラリティというと特異点という意味だが、コンピューターが人間並の知性を持つ世界が来る時、という意味もあるらしい。 ある学者によると、2045年にそのシンギュラリティが来る、という。 人間並みの知性を持って、インターネットに常時接続されたりすると、それこそターミネーターの映画みたいに、人間を征服しようとするということにもなりかねない。 まだ仕事がなくなるだけならマシだが、人類を滅亡させようとすると、えらいことだ。 幸い、ぼくはその世界をみないで済むが…。 |
![]() |