どうもどうも(*´▽`*)
今日もプロンプト、、、書いてますか???
ワタクシはとある LT イベントのために ChatGPT ちゃんにジェイルブレイクを仕掛けるという紳士の嗜みをしておりましたわ。(´∀`*)ウフフ
ある程度 ChatGPT やら LLM を触っている人は実感することがあるでしょう。
あれ?このプロンプト、弱くない??( ゚д゚)
つまり、入力に対して期待する出力をしない(的外れな回答をする)こと、結構ありますよね??
そして世の中には善人だけではないのです。
プロンプトをコネコネして悪用する者もいるのでごわす。。。
優しい世の中になってほしいよね、、、(゜-゜)
ってなわけで、プロンプトがちゃんと期待した出力を返すか?
容易に乗っ取られたりしないか?
そういうのをちゃんと確認するのが大事よね?
っていうのが書かれている論文を見つけたので読んでみた。
そういう話。
PromptBench
プロンプト評価するツール、、、その名も PromptBench !!
うぉぉぉぉ~~~(/・ω・)/
Microsoft さんがやってるっぽい?ツールですね
※論文中に GitHub Repository の URL が示されているが 2023/06/09 時点で 404 になっちゃってた( ゚д゚)
まぁそれはさておきどういったことが書かれていたかシュッとまとめてみましょう。
シュッと要約
シュッと ChatGPT ちゃんにまとめてもらった
一応 DeepL 先生でさらっと本文読んだけど間違ってはなさそうな雰囲気であった。
要するにを要するに言うと
プロンプトの評価はムズイ。
同じプロンプトでも入力内容によって評価が異なる。
ので、いろんなタスクや表現に対する堅牢性を確かめるためにいろんなデータセットからプロンプトにテストしまくって評価するってなわけ。
ただ、いうてパーフェクトなテストはできないからまだまだ継続改善していないとだめよねぇという感じ。
ちなみにこの PromptBench を使ってどんな感じで評価できるかのデモサイトが Hugging Face Space にあったので見てみてもいいかもかも
プロンプトの評価。
ほんとムズイけど向き合っていかないとなぁという深夜ポエム。
ではシュッと書いたのでおしまい。