生成AI活用法(2)−ハルシネーション(誤情報生成)に注意。
ChatGPT
https://openai.com/ja-JP/
は本当に便利です(^_^)
私は、今、通信講座の講義資料の改訂作業を
していますが、
昨日も、例文作成でフル活用しました(^_^)
「さつき言葉(さ入れ言葉)が入った使役の
文を40個あげてください。」
と指示したら、数秒もたたないうちに
例文を40個、ダ————!とあげてくれまし
た。
よしよし(^_^)
しかしながら、注意しなければならない
点もあります。
それが、ハルシネーション(誤情報生成)。
時々、誤った情報をもってくるんですね。
例えば、私が昨日、
「「動詞辞書形+なくなる」を含んだ文を
20個あげてください。」
と指示したところ、例文の中に
・最近、テレビを見ることが少なくなった。
がありました。
いやいや、これは違うでしょ。
そういうことがあるのです。
でも、よく考えてみれば、私たち人間も
ネット検索や人伝いの誤情報を鵜呑みに
してしまうこともままあります。
ChatGPTも、ネット上の情報をもとに
返事を返してくるので、どうしても
こういうことが起こってしまうのです。
とはいえ、ChatGPTはいつも元気で
いつもポジティブ(^_^)
私が、ChatGPTを
【活きのいいインターンシップ生】
と呼ぶ所以です(笑)
では、このハルシネーションに対して
どう対処すればいいのか。
『はじめての生成AI ChatGPT「超」
活用術』
https://amzn.to/4iY583E
では、以下の方法が紹介されています。
▼「正確な情報がない場合は、“わか
りません”と答えて」と指示する
▼情報ソースを確認する
▼大事なことは自分でも調べる(p.18)
私も大事な情報や正確さが必要な情報
の場合は、
「出典先も合わせて教えてください。」
と指示し、出典先の情報も確認する
ようにしています。
これだけでもハルシネーションのリスク
をかなり減らすことができます。
それから、生成AIを使う時にもう一つ
大事なこと。
それは、
【個人情報や機密情報を入力しない】
ということです。
これもとても大事。
気を付けてくださいね。