![]() |
2023.04.17 Monday
人類の危機
昨日も書いた生成系のAI、ChatGPTだが、アメリカでも開発を一時凍結するよう、署名運動が始まったという。
テスラのイーロン・マスクや、アップルの創業者の一人であるスティーブ・ウォズニアックなどを含む研究者や著名人1300人が名を連ねている。 社会と人類に重大なリスクがある、というのがその理由。 イーロン・マスクは、核兵器より危険だ、と主張しているらしい。 ChatGPTはユーザーが2ヶ月で1億人になり、おそらく今ではその数倍になっているとのこと。 この手の人工知能は、ユーザーが増えるほど学習が進み、誤りが訂正されていく。 無料だから、面白がって使うユーザーが教師となって、今やChatGPTは指数関数的に賢くなっているという。 どんどん賢くなると言っても、所詮はコンピューターだから思想やイデオロギーは関係ない。 どんなアルゴリズムで答えを導き出しているのかはわからないが、怖いのはそれを作った人間にもわからないことだ。 何を学習して、どんなロジックでどんな結果を出すのか、それを作った人にもわからない。 これが機械学習の不思議なところだと思う。 中国では開発が禁止されているという。 なぜかというと、習近平に否定的な答えが出るからだ。 それはインターネット上のたくさんの文書がそう書いてあるからだろう。 何を学習しないか、という選択は難しい。 それでも、ChatGPTにアクセスして使う中国のユーザーがいるという。 それらのユーザーがどういう意図で使っているのかはわからないが、それこそ共産党にとっては驚異だろう。 たしかに、「核兵器より危険」という意見もわかる。 学習する素材を指定しても、ユーザーが他のものを教えれば、そちらを学習してしまう。 検索エンジンで調べて答える、ということも普通にやっているのだろうから、教師が増えれば加速度的に賢くなっていくのは当然だ。 「賢くなる」という擬人化した表現が、そもそもおかしいのだろう。 調べる人間にもいろんなバイアスがかかっているから、正しいことはまちまちだ。 だから、AIが客観的に正しいとは限らない。 核ミサイルを打ち合って、文明を一旦リセットしたほうがいい、という答えを出すこともあるかもしれない。 そういう危機を考えているのだろう。 ChatGPTなどの生成系AIはどうなっていくのだろう。 |
![]() |