考えたこと2

2024.9.24から、今までhttp:で始まっていたリンクが、https:に変わります。申し訳ありませんが、リンクが見られないときは、httpsに変えてみてください。
CALENDAR
<< April 2025 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 >>
+RECENT COMMENTS
+CATEGORIES
+ARCHIVES
+PROFILE
+OTHERS
人類の危機
昨日も書いた生成系のAI、ChatGPTだが、アメリカでも開発を一時凍結するよう、署名運動が始まったという。
テスラのイーロン・マスクや、アップルの創業者の一人であるスティーブ・ウォズニアックなどを含む研究者や著名人1300人が名を連ねている。

社会と人類に重大なリスクがある、というのがその理由。
イーロン・マスクは、核兵器より危険だ、と主張しているらしい。

ChatGPTはユーザーが2ヶ月で1億人になり、おそらく今ではその数倍になっているとのこと。
この手の人工知能は、ユーザーが増えるほど学習が進み、誤りが訂正されていく。
無料だから、面白がって使うユーザーが教師となって、今やChatGPTは指数関数的に賢くなっているという。

どんどん賢くなると言っても、所詮はコンピューターだから思想やイデオロギーは関係ない。
どんなアルゴリズムで答えを導き出しているのかはわからないが、怖いのはそれを作った人間にもわからないことだ。
何を学習して、どんなロジックでどんな結果を出すのか、それを作った人にもわからない。
これが機械学習の不思議なところだと思う。

中国では開発が禁止されているという。
なぜかというと、習近平に否定的な答えが出るからだ。
それはインターネット上のたくさんの文書がそう書いてあるからだろう。
何を学習しないか、という選択は難しい。

それでも、ChatGPTにアクセスして使う中国のユーザーがいるという。
それらのユーザーがどういう意図で使っているのかはわからないが、それこそ共産党にとっては驚異だろう。
たしかに、「核兵器より危険」という意見もわかる。

学習する素材を指定しても、ユーザーが他のものを教えれば、そちらを学習してしまう。
検索エンジンで調べて答える、ということも普通にやっているのだろうから、教師が増えれば加速度的に賢くなっていくのは当然だ。

「賢くなる」という擬人化した表現が、そもそもおかしいのだろう。
調べる人間にもいろんなバイアスがかかっているから、正しいことはまちまちだ。
だから、AIが客観的に正しいとは限らない。

核ミサイルを打ち合って、文明を一旦リセットしたほうがいい、という答えを出すこともあるかもしれない。
そういう危機を考えているのだろう。

ChatGPTなどの生成系AIはどうなっていくのだろう。






| hdsnght1957kgkt | 考えたこと | 22:57 | comments(0) | trackbacks(0) |

コメント
コメントする









この記事のトラックバックURL
http://hdsnght1957kgkt.blog.bai.ne.jp/trackback/241359
トラックバック