![]() |
2015.07.15 Wednesday
怒る人工知能
人工知能は賢くなるだけではなく、人間のように感情を示すということもあるらしい。
グーグルの研究者が、映画の脚本のデーターベースを使って学習した人工知能を作った。 それに対して、「道徳」という言葉の定義を指示したら、人工知能が怒りだしたとのこと。 最後は、人工知能が「もう話したくない」と言い出した。 ホントかなと思うが、学んだベースが映画の脚本ということだから、あり得ると思う。 どれくらいの量の脚本を学習したのかはわからないが、結構な数だろう。 映画ではいろんな事が描かれる。 ヒューマンドラマもあるだろうし、刑事ドラマもある。戦争ドラマもあるし、コメディもあるし、ブラックユーモアもあるだろう。 たくさん学ぶほど、何が道徳かはわからなくなるだろうと思う。 いろんな主人公が、いろんな場面で描かれているはずだ。 なかには、殺人を犯すことが道徳的だ、という映画もあるだろう。 学べば学ぶほど、「道徳」なるものを定義するのは難しくなるのは、容易に想像できる。 人間でも同じだ。 ちゃんと学んだ結果だとも言える。 こういう話を聞くと、世の中に正しいものなどないのではないかと思えてくる。 ぼくは「道徳」とは何か?と聞かれたら、「他人を慮って、正しいことをすること」というふうに答えると思うが、それも場合によると思ってしまう。 だいたい、正しいことって、いったい何なのか、よく考えたらわからない。 結局生身の人間にしたって、「道徳」とは何かと聞かれても、なかなか答えられないということだ。 だから、「道徳を定義せよ」と言われて怒るコンピューターは正しいのだろう。 ということは、人工知能は人間並になってきたということだ。 このままいくと、どんどん学習が進んでスーパーマンのような人工知能ができるかもしれない。 その人工知能に、人間はアゴで使われるかもしれないぞ…。 |
![]() |