![]() |
2023.04.20 Thursday
GIGO
GIGOとは、”Garbage In, Garbage Out”のこと。
直訳すると「ゴミを入れると、ゴミが出てくる」という意味だが、これは1957年にアメリカ陸軍のWilliam Mellin氏が「コンピューターの能力は何を入力するかで決まる」ということを新聞記者に説明したときの言葉だという。 ZDNETの記事に出ていた。 これは今流行りのChatGPTにも当てはまるという。 この手のAIは、どんなものを機械学習の材料としてきたかが明らかではないので、注意が必要ということだ。 そのために、質問の仕方を工夫する必要がある。 事実、質問の仕方を変えると、ChatGPTの答えは大きく変わる。 危険なのは、ChatGPTがまことしやかな嘘をつく(これも擬人的な表現だが)ことだ。 実際にはChatGPTが嘘をついているわけではなく、学習結果を文章にしているだけで、誰かが書いたその学習結果が嘘なだけだ。 それを回避して、効果的な質問をする方法を知っている人のことを「プロンプトエンジニア」というらしい。 その方法とは、 1.人間と話すようにAIと話す 2. 状況を設定してコンテキストを提供する 3. AIにアイデンティティーや職業を考慮させる の3つらしい。 1つ目の人間と話すようにAIと話す、というのは会話を意識するということだ。 質問というよりは会話、というのは就活の面接と同じ。 2つ目の状況を設定してコンテキストを提供する、というのは一番聞きたいことをちゃんと伝えるということだろう。 一般的なことよりも、自分にとって何が大事かということだ。 より具体的に質問をすれば、より答えは正確になる。 3つ目のアイデンティティーの考慮は、質問する際に、どの立場から答えてほしいのかを明確にすることだろう。 そうすることで、より有用な答えを引き出すことができる。 質問(プロンプト)をより明確にすることで、より答えが明確になる。 ぼくはEdgeブラウザの検索エンジンBing上でしか使ったことはないが、いろんな使い方ができそうだ。 こないだ書いた、ChatGPTに仕事を取られたライターの話は身につまされる。 そのうち、ChatGPTがエントリーシートを代筆する日が来るのだろうか。 そんなことは朝飯前のような気もする…。 |
![]() |