![]() |
2019.08.08 Thursday
AIの哲学
人工知能の開発者の目線で「哲学」が必要だという記事があった。
今の人工知能が飛躍的に進歩したのは、脳の構造を模して、機会的に学習できる仕組みを作ったからだと思う。 しかし、この記事を書いた日本デジタルゲーム学会理事の三宅氏は、こう書く。 「人工知能という学問の最大の特徴は「基礎がない」という点だ。つまり、「知能とは何か」という基礎が分かれば、数学的に理論を構築できるが、それがあいまいであるため、ど真ん中の問いを保留して、応用として周辺の知的機能や技術にばかり傾注している。 人工知能の歴史は60年ほどしかない。その間、「外」に向かって人工知能(であろうもの)を実装しつつ、「知能とは何か」という「中心」に向かってようやく学問の基礎も掘り進め始めた、というのが人工知能研究の今の姿である。」 汎用的なAIを作るには、この「知能とはなにか」ということを明らかにしないといけない。 これは大変なことだ。簡単には出来ることではない。 そこで、哲学の出番だということになる。 しかし、知能とはなにかというのは本当に難しい。 そんなことを真剣に考えた人は、今までいないと思う。 人間が考えることが知能であって、それは当然のものだからだ。 人間以外が知能について考えることなど想定していないのだ。 ぼくは今の所、今後のAIを進化させるのは、脳科学の課題のような気がする。 こないだ読んだ進化心理学の本によると、人間は他の哺乳類に比べて、ニューロンの数はそれほど違わないとのこと。 違いが大きいのはシナプスの量だという。 要するに、記憶の量はそんなに違わないが、その繋がりが非常に多くなっているということだ。 いろんなものを関連づけていることが、他の哺乳類との違いらしい。 たしかに、知能というのは、何かと何かを関連づけて考える力だとも言えるかもしれない。 微分や積分を、変位や速度と繋げて考えるなどというのは、まさにそういう事だろう。 そういうアナロジカルな考えが、知能の特徴だと思う。 「人間は考える葦」などという言葉を理解するのも、知能の力だろう。 「人間」「考える」「葦」という3つの言葉をつなげることができるか、という「想像力」みたいなものをどうプログラムするか、という感じだ。 自分でもどういう記憶をどう繋げてそれを理解しているのか、全くわからない。 今も脳に電極をつけて、何かを聴いた時に、どこが働いているか、というような実験をしているんだろうか。 そんな荒っぽいことでは埒が明かないような気もする。 脳の研究が進めば、そういうチップもできるかもしれない。 でも、「その日」は来てほしくないように思うのはぼくだけだろうか。 |
![]() |