”生成AIを上手に使いこなす人”は何が違うのか - ゴールイメージと指示の具体性 -
エピソード
ChatGPTなどの生成AIがビジネスにおいてもよく使われるようになってきた。文章の要約や、メール文面の下書き作成、翻訳や文書校正など。ただ、実際使われている現場を見ていると、”AIを上手に使いこなす人”とそうでない人がいる。”AIを上手に使いこなす人”は何が違うのか?ポイントは、”ゴールイメージの有無”と”指示の具体性”にあった。AIへの指示の出し方の巧拙と、人への指示の出し方の巧拙には、共通点が多い。
ゴールイメージを持つとは?
ChatGPTに限った話ではく、誰かに指示・依頼する際には、”どのような答えを求めているか、返してきてほしい答え(ゴール)のイメージ”を依頼側が持っていることが重要と思う。
笑い話ではあるが、先日以下のようなことがあった。
ある知り合いが、ChatGPTに長文ドキュメントの要約を依頼しようと、以下のように打ち込んでいた(実際にはxxx部分に長文の内容が記載されている)。
大体ChatGPTはうまく要約してくれるのだが、あまりにも貼り付けたドキュメント部分が長すぎたのか、ChatGPTから以下のようなエラーメッセージが返ってきた。
それを見た本人は、「あれ?なんか返ってきたけど英語でよくわからないな・・あ、そうだこの文章もChatGPTに和訳してもらおう!」と意気揚々と上記メッセージをChatGPTにコピペして打ち込んだ。
上記を見た本人は
「え、こんなに短い文章なのに長すぎるの?だめだ、ChatGPT使えないや・・」と言ったのである。
お分かりと思うが、ChatGPTは忠実に”和訳”した答えを返してきている。
ChatGPTがどんなに忠実に依頼に答えても、依頼した側に最低限の知識がないと宝の持ち腐れになる、という典型的な例だと思った。
完全でなくとも、依頼側は”返してきてほしい答え(ゴール)のイメージ”を持っていることが重要と思う。
指示の具体性とは?
ChatGPTへの指示は、前提や役割・依頼内容・出力形式などを具体的に示すことが重要といわれている。
例えば、今から行うセミナー冒頭のあいさつについて、ChatGPTに案を考えてほしい場合は、以下のように指示するとうまく返してくる。
前提条件として「セミナー主催者(誰が)」「本日これから行う(いつ)」「AI活用事例のセミナー(何の)」「冒頭のあいさつ(何を)」「400文字以内(どれくらい)」を入れることで以下のような答えが返ってくる。
実際にやってみるとわかるが、上記の前提条件を1つでも飛ばすと期待したような答えが返ってこない。
人への指示でも同じで、”自分の中で当たり前と思っている前提”も、あえて具体的に言わないと伝わらないのだということが改めて認識できる。
ただ人への指示と違って優れているのは、「すぐに答えが返ってくるので、伝わっていないことがすぐにわかり、すぐに修正できる」という点だと思う(これが人への指示だと、何日も経ってから伝わっていなかったことに気づくことが多い)。
そんなことを考えていたら、以前読んだ『自分の頭で考えて動く部下の育て方』(篠原 信著)という本に以下の興味深いことが書かれていたことを思い出した。
以下の「部下」という部分を「AI」に読み替えても何ら違和感がない。やはり、人に対する指示と、AIに対する指示には共通点が多いと思った。
参考になった書籍
まとめ
”AIを上手に使いこなす人”は、自分でも”ゴールイメージ”を持ち、”具体的な指示”でAIを使っている
「人への指示をうまく出せること」と、「AIへの指示をうまく出せること」には共通点がある(ただ、”回答スピード”や、それによって”試行錯誤できる回数”に大きな差がある)