【読書メモ】Chat GPTを使い尽くす 深津式プロンプト読本
はじめに
noteのCXOでユーザーの行動を設計するデザイナーである深津 貴之さんの知見が凝縮された『Chat GPTを使い尽くす 深津式プロンプト読本』読んでみました。
生成AIの活用範囲は私が働いている会社内でも広がっています。私自身も業務で積極的に使っていますが、そもそも活用方法を創発的に見出すこと自体が面白いです。
深津さんは以前からXや企業開催のセミナーなど様々なシーンで生成AIの特性や活用について説明しています。
きっと多くの気づきがあるだろうなと思い読んでみましたが、勘はバッチリ当たりました笑。
プロンプト内容はもちろん有益ですが、深津さんの物事の本質に捉える洞察も大変参考になります。
今回は特に興味深いと思ったポイントをまとめてみようと思います。
深津式プロンプトの基本
深津式プロンプトの基本は全部で5つ。
それぞれポイントをまとめていきます。
ロール
ロールとは、役割。ChatGPTに対して役割を与えることで、適切な回答を引き出せる。
コンテキスト
コンテキストは、すなわち文脈。どのような回答を求めているかの文脈を適切に指示することで精度を高めらる。
制約条件
制約条件は、文字通り回答を導く上での制約を定義して上げること。
出力フォーマットについて
出力フォーマットを指定することで、ChatGPTが勝手に考えたことをダラダラと書き連ねることを防ぎ、プロンプトを書いた人が欲しい書き方の文章を得ることができる。
出力ステップについて
考え方などをステップで指定して、ChatGPTが良いと思う条件に基づいて、内容を考えさせる方法。
では例として、紹介した5つの基本を押さえてソーシャルメディア上のキャンペーン企画をChat GPTに考えさせてみます。
ちなみに「###」は、Markdownという形式でテキストを整理するための記号。これを使うことで、見出しやセクションを簡単に表現できる。
また「構造化してまとめてください」など付け加えることで、
論理立てて適切にまとめてくれる。
実務で使えるプロンプト集
関連資料を渡してから作業させる ― Information Retrieval
これは関連資料を渡してからChatGPTに作業をさせるということ。
ChatGPTなどの大規模言語モデルの性質を考慮すると、手前にいい情報がしっかり渡されていれば、その情報を加味して続きを書かせることができる。
大規模言語モデルが学習の根拠にする情報を人間の側から積極的に渡す。
まず前情報をLLMに生成させてから作業させる ― Generated Knowledge Prompting
Information Retrievalの応用。資料そのものをAIに作らせてしまう。
例えば、ネット上で実施するキャンペーンの企画を考えなければならない場合で、自分の手元には参考になる良い資料がないとする。
そんなときは、「めちゃくちゃバズるネットキャンペーンとはどのようなものですか?」と、まずChatGPTに聞いてみる。
ChatGPTなどのAIが単純なことしか言わないときも、「深い記事とはどういうことですか」「面白い企画はどういうものですか」といった問いを投げて、先にAIに定義させてから具体的な内容を答えさせる方法。
段階的に思索させる ― Chain of Thought
Chain of Thoughtは、「考え方」や「プロセス」を大規模言語モデルに与える手法。Chain of Thoughtのプロンプトの書き方は以下のようなイメージ。
冒頭に目的を記述した後で、考え方やプロセスについて、人間から指示を与える。編集会議や企画会議の前などに、頭の中でやる流れを整理するようなイメージ。
複数のアプローチを検討してから結論を出す ― Tree of Thought
「Tree of Thought(ツリーオブソート)」はChain of Thoughtの亜種。
Chain of Thoughtではプロセスを複数の段階で実行したが、Tree of Thoughtでは1つのプロセスを段階ではなく、別のアプローチに分岐させて考えさせるように依頼して、最終結論を導き出す。
簡単に説明すれば「プランA」と「プランB」を考えさせ、比較検討してすぐれた答えを選ぶようなイメージ。プロンプトの例は下記。
タスクに必要な行動と理由を考えさせる ReAct (Reasoning + Acting)
ReActで尋ねるのは「動作」。
ReActの指示の仕方をまとめると、1.タスクに必要な行動と理由を考えさせ、2.それを実行させ、実行させた結果に対して再び、必要な行動と理由を考えさせループさせる。
知識が行動に変わったGenerated Knowledge Promptingの一種。プロンプト例は下記。
足りない情報について大規模言語モデル(LLM)から質問させる ― Proactive Prompting
足りない情報について大規模言語モデル(LLM)から質問させるのが、Proactive Prompting。
例えば、「この記事を書くために足りない情報があったら教えて」とか「この企画に弱いところがあったら教えて」といった形で、ChatGPTに最初にツッコミを入れさせる。
まず一般論を聞き、そのあとに一般論でないものを引き出す ― Common Belief and
ChatGPTなどの大規模言語モデルは、確率的に次の文章を書く機械。確率で文章を生成するので、確率が高くなりがちな一般論は出力しやすい。
一方で、特殊なアイデアなどは、そのまま尋ねても出てきにくい。
なので、まず一般論を聞いて、その後に一般論でないものを答えさせるという流れ。
今の出力を60点として、100点とはどのようなものか考えさせる — Score Anchoring
例えばあなたがブログのタイトルを考える場合、既に出ているタイトルを上げて、ChatGPTに「では、上記のタイトルを60点とします。足りない40点はなんですか?」と聞いてみるのがScore Anchoring。
この聞き方をすると、上の回答がどんなに良くても、それを60点として足りない部分を補完することを考えてくれる。そうしたら「ではそれをやってください」と依頼してしまえば良い。
仮想のパラメーターを定義する — Virtual Parameter
先ほどのScore Anchoringでは、ChatGPTが出した答えを60点などと決めつけて、もっと考えさせましたが、Virtual Parameterでは、その変数(パラメーター)をこちらから定義できるように情報を渡します。
会社の同僚への挨拶を例として考えてみます。
サンプルA、Bの直線を延長した先の答えを求める — Virtual Vectorization (オリジナル)
これは、Virtual Parameterの応用。例えば先ほどのタイトルの例で、真面目度が0点と100点を定義していました。
真面目度70点や30点はそこからパラメーターの指定で作ってもらえる。それをさらに、延長線上に引っ張ってみることもできる。つまり、真面目度150点や200点のタイトルを考えさせるということ。
事前検死 - プロジェクトの失敗を想定して分析する
事前検死とは
事前検死というのは、失敗学やリスクマネジメントで用いられるメソッドの一つ。プロジェクトの開始時に、「プロジェクトが最終的に失敗した」という仮定の下でプロジェクトの生前葬や反省会を行う。
このプロセスでは、プロジェクトの失敗原因を洗い出し、事前に対策を講じることで、プロジェクトの成功確率を高めることを目指す。この手法により、潜在的な問題点をあらかじめ把握し、予防策を立てることができる。
ChatGPTを使ったプロジェクトの事前検死プロンプトは下記。
社内的に事例が少ないプロジェクトに携わるときなど、事前検視はMustで行っておきたいと思います。
チェックしたいガイドライン
AI事業者ガイドライン(第1.0版)(経済産業省・総務省、2024年4月発表)
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
初等中等教育段階における生成AIの利用に関する暫定的なガイドライン(文部科学省、2023年7月発表)
https://www.mext.go.jp/content/20230718-mtx_syoto02-000031167_011.pdf
人口知能AIに関するOECD原則
米国土安全保障省サイバーセキュリティ・インフラセキュリティ庁(CISA)による「AIシステムの安全な開発に関するガイドライン」
他のアプリと連携させる
Zapier(ザピアー)というWebサービスと組み合わせる
Zapierは、あるサービスと別のサービスを連結させる自動化サービスの代表的なもの。
サービスAで何かが起きたら、それをトリガーとしてサービスBで何かを実行するという連結が簡単にできる。この機能を活用することで、「Webサイトでコンテンツが更新されたら、内容をChatGPTでまとめて、Gmailで指定したアドレスに送信する」といった作業を自動化できる。
利用シーンはたくさんあり、「Slackに文章が投稿されたら、ChatGPTで返信の文面を作って、Slackに投稿し直す」「Google Docsにファイルがアップロードされたら、ChatGPTでサマリーを作ってMessengerでメッセージを飛ばす」など、アイデアはたくさんある。
何かが起こったことをきっかけにして、何かが出来るというツールなので、その間にChatGPTを連結することでテキストを扱うような作業がこれまで以上に高い自由度で自動化できるようになる。
ChatGPTの側から見ると、サービスやアプリの変化をきっかけにChatGPTがテキストを処理して、次のサービスなどを起動するような連携に使えるようになる。
Zapierなどの自動化サービスの側から見ると、ChatGPTを使うことでサービスの連携の途中に自然言語処理を加えることで、さらにその価値を高めることができる。
増え続ける生成AI系ツール
本項は『Chat GPTを使い尽くす 深津式プロンプト読本』の内容とは関係ありません。
生成AIツールが雨後の筍のように登場しており、最近気になったものを備忘録として整理してみようと思います。
VARIETAS
AI面接官サービス。
トレーニングされたAI面接官による書類選考・一次面接で、
一般的に採用で見るべきとされる30項目をマルチアングルに評価。
ESをもとに面接を行い、応募を効率的かつ公正に評価し、
各社の条件を満たす候補者を選出することが可能。
satto(さっと)
「satto」は、“いつでもあなたをサッと助けてくれる存在”を目指して開発されている生成AIエージェントサービス。
フリーランスや会社員、学生など「生成AIをもっと効果的に活用したいがうまく使いこなせない」と感じているさまざまな現場のユーザーが、シンプルな操作だけで業務を簡単に実行するためのパートナーとして設計されている。
天秤AI
GPT-4o、Claude 3.5、Gemini 1.5、Perplexityなど最新AIを、最大6個まで同時に実行できる。
https://tenbin.ai/workspace/welcome
メール作成やSNS投稿など、複数の出力を比較・統合できる。
NotebookLM
PDF、ウェブサイト、YouTube 動画、音声ファイル、Google ドキュメント、Google スライドをアップロードすると、NotebookLM がそれらを要約し、トピック間の興味深い関連性を導き出します。
これらはすべて、Gemini 1.5 のマルチモーダル解析機能によって実現されます。
Genspark(ジェンスパーク)
検索に特化した生成AI(人工知能)である「Genspark」。
特定の事柄を質問すると、複数のソースを参照して情報をまとめて表示する。
ちなみに類似サービスであるPerplexityと比較した記事を見つけました。
Perplexity(パープレキシティ)
Perplexityは、AIスタートアップ企業Perplexity AI, Inc.により2022年に公開されたAIチャットボット型の検索エンジン。
https://www.perplexity.ai/
ウェブからの情報源を用いて回答を生成し、回答文中に根拠となる情報源を引用する機能を持つ。
以上です。引き続きよろしくお願いいたします。
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?