BtoBマーケティングとChatGPT Code interpreterの可能性をひたすら考える
Code interpreterがベータ版公開され、
活用法についていろいろ話題になっていますね!
記事投稿が滞ってしまいましたが、
これまで実際のお客様へのChatGPT活用支援やプロンプトの納品を推進しており、アウトプットになかなか時間が割けずにおりました。すみません。
(もうすぐ、いくつかの成果がプレスリリースできる予定です。)
これからまた少しずつ発信していければと思います。
Code interpreterでできるようになったこと
Code interpreterは実際に試していますが、
BtoBのマーケティングにおいては、かなりのインパクトがありそうです。
コンパクトに言えば、
<できるようになったこと>
・pythonが日本語の指示で実行できる
※非エンジニアがコード実行できる
※pythonが得意なことがそのままChatGPTの強みになる
・エラーに自動で対処しようとしてくれること
※指示を実行しようとしてうまくいかなかった場合も、
データの成形やエラーコードに合わせた対処も考えてくれる、
やってくれる
・データをきちんと読み込めるように、扱えるようになったこと
※これまで表組データを与えても、正しく認識をしてくれなかった
※これまで特定のデータや意味を並び替えたりして、
分析につかいづらかった
・データや分析結果に対して、さらにプロンプトを実行できること
※改善策や考察まで、取り扱える。
実データを基にしているので、
これまでの平均的な回答から大幅に説得力アップ。
※データ分析の視点を具体的に与えることで、
かなりつっこんだ分析・対策に可能性。
このようなところがBtoBのウェブマーケティングとの兼ね合いでできるようになったことかと思います。
何がすごいのか?
できることが増えたことで、具体的に何がすごいのか?どんな可能性が広がっているのか?
所感でいえば以下の2点です。
・データ取得/分析/開発/実行まで、1人でできる。
(専門性を担保したまま、一気通貫でスーパースピードでできる)
社内で、データを出すのをお願いしたり、
SQLを書いてもらって成形してもらったり、
間違いがあって他の部門に差し戻したり、
社内の順番を待って開発をしてもらったり、
そんな手間がすっ飛ばせる。
すべてひとりでできるようになるので、
他の人・部門に気を遣わずに、いろいろと試せる。
そして、試したモデルを共有できる。
・データ/開発/実行がつながることで、全自動化の可能性が現実味を帯びてきた
高いレベルのデータ→改善実行のプロセスがプロンプト化できれば、
ベータ版が解除され、API提供されたときに、全自動化の可能性が見えてきた。すでにAutoGPTなどのチャレンジがあるが、誰でも自分にフィットした全自動ツールを作れる可能性が見えてきた。
ということかと思います。
ただ、きちんと指示をしなければならないので、気軽に?という感じではなさそうです。
具体的なケースを見ていきましょう。
code interpreterの実力が垣間見れる実験
可能性を感じてもらうテーマとして、
「サーチコンソールからデータを出力し、SEOの順位のわりに、クリックされていないキーワードを抽出し、該当ページに対策案を作り、実行する」
というテーマの例をご紹介します。
サーチコンソールとは、
googleが提供するウェブマスター向けのツールです。
登録・設定をすることで、さまざまなウェブサイトの状態を確認することができるウェブマーケティングをやっていればおなじみのツールです。
サーチコンソールの中でも面白いデータが、
自社のウェブサイトがどんなキーワードで、何位に表示されているか?
という情報です。これを見ていくと、さまざまなキーワードで検索に引っかかっていることがわかります。
よく見ていくと、
・検索の順位が低いにも関わらず、よくクリックされているキーワード
もあれば、
・検索の順位が高いにも関わらず、あまりクリックされていないキーワード
もあるわけです。
後者はせっかく上位に表示されているので、検索結果に表示されているテキスト情報(タイトルタグ/メタディスクリプション)の記述内容を改善して、サイトへの誘導力を高めようという試みです。
それでは、いってみましょう!
1.サーチコンソールからデータを取り出す(サーチコンソール)
まずサーチコンソールからデータを出力します。
サーチコンソールに入ると左のメニューバーに「検索パフォーマンス」
というメニューがあるので押します。
これで自分のウェブサイトが表示された検索キーワードと「クリック数」「表示回数」がでます。
デフォルトでは、「平均CTR」「平均掲載順位」にチェックが入っていません。チェックをいれると画面でも表示されます。※チェックをいれなくてもデータはきちんと出力されます。
平均CTRとは、表示回数に対してクリックされた率:クリックスルーレートの平均です。
平均掲載順位とは、そのキーワードでの検索結果で平均何位だったか?というデータです。
この画面の状態で、右上エクスポートを押します。
・googleスプレッドシート
・Excelとしてダウンロード
・csvとしてダウンロード
と選択肢がでてくるので、今回はcsvで落として進めています。
2.ChatGPTに読み込めるかテスト(ChatGPT4:Code interpreter)
データの用意ができたら
ChatGPTを立ち上げ、GPT-4のメニューから「Code interpreter」を選択すると、いつもの会話の窓の中にデータをドロップできるようになります。
・落としたCSVの項目名を英語に変えて読ませています。
・また、キーワードはダミーとして、キーワード1、2、3のように変換しています。
以下のような返答がきました。
どんなデータがあるか確認してくれます。
※CSVの場合、設定により文字コードの不一致がよく起こりますが、少々のエラーなら自己解決して、どんどん読み込みを進めてくれます。これもすごい!
次に、このデータに対する指示をしていきます。
3.グラフ化して確認(ChatGPT4:code interpreter)
グラフ内に日本語を入れたい場合は、フォントを事前に読ませるなどの方法がありますが、今回の趣旨からは外れるので割愛します。
まずは日本語なしで、項目名なども英語にしておいたほうが、とりあえずは使いがってはよいかと思います。
指示として、グラフ化をお願いしてみます。
ここまでで、
平均順位に対するクリック率のデータが成形、グラフ化できました。
ものの数分です。すごいスピード感!
4.回帰分析でモデル式を作成(ChatGPT4:code interpreter)
この中から、より改善すべきキーワードを抽出するために、相対的に見て反響がよくないキーワードをしらべたいと思います。
やや乱暴ですが、回帰分析をしてみたいと思います。(自分は初歩的な統計学の知識しかないのですが、付け焼刃でもいろいろできてしまうのがすごい!)
目的変数をCTR、説明変数をRankとして回帰分析を依頼したものが以下です。
こういった形で線形のモデル、および数式を出してくれました。
もう少し厳密には、
順位が1位に近づくと非常にクリック率が良くなり、順位が落ちるとロングテールでクリック率が落ちていくグラフが想定されるかと思います。
そのため、対数を使ってモデル式下を試みます。
対数近似で回帰分析して
と、お願いすると以下のようなモデルを出してくれました。
さっきよりも決定変数がよくなりましたと、ほめてくれました。
5.回帰式を下回る条件に当てはまるキーワードを抽出(ChatGPT4:code interpreter→CSV等)
この式の下にあるものが、パフォーマンスが悪いキーワードなので、そのキーワードをリストアップしてもらおうと思います。
まず、この回帰式を聞いておきます。(何も言わなくても出力されることもありますが、このときは教えてくれなかったので。)
この式をメモしておいて、
パフォーマンスが悪いものがどのくらいあるか?聞いてみます。
rankが5以内にも関わらず、CTRが回帰式よりも下に位置するキーワードはいくつありますか?
約1,000のキーワードから対象となるキーワードが52個あることを教えてくれました。
続けて、そのリストを距離が遠い(改善の余地が大きい)ものでソートし、より乖離が大きい順番に提示してもらいます。そして、CSVに出力して保存しておきます。
すると、
リンクを提示してくれて、無事CSVがダウンロードできました!
こんな感じです。
例えば、一番上のキーワード608は、平均順位がほぼ1位にも関わらず、クリックがありません。インプレッションが210あるので、きちんと改善されれば毎月の誘導数も増えそうです。
もちろんキーワードの内容によっては誘導しても顧客になる可能性が低いものもありますので、そういったものは除外します。
このような感じで、改善余地が大きそうなものから、優先的に改善をおこなうためのリストをつくることができました。
少し難しい部分もあったかもしれませんが、
このようなことがものの5分、10分でできてしまうわけです。
あとは、時間に余裕があるときに、少しずつ改善を実行していきます。
そのあとは、手順のみ提示します。
6.キーワードが該当するページを確認(サーチコンソール)
サーチコンソールに戻ります。
サーチコンソールで、抽出したキーワードがどのページに該当するか調べます。具体的には、抽出されたキーワードをクリックし、絞りこんだあとでタブ内の「ページ」を押すと、そのキーワードがどのページに流入しているかわかります。
すると、
せっかくSEOで上位にでているにも関わらず、あまりクリックされていないキーワードに対する対象ページが出せます。
ここでできる対策をしては
1.タイトルタグを変更することで、ページ名称の訴求力を高める
※タイトル変更はSEOの順位にも影響がある可能性があるので注意
2.メタディスクリプションを変更・設定することで、
ページの説明部分の魅力度をアップする
※ここは順位に影響ないので自由に試す!
この2つです。
特に、有力なキーワードであれば、そのキーワードが
・タイトルタグの冒頭に
・メタディスクリプションでもきちんと説明
されているほうが望ましいです。
そういった方向性になるように、修正案を作っていきます。
7.ページのタイトル・メタタグを確認(手作業:将来ChatGPTのブラウジング機能できる)
この手順は、現在ブラウジング機能が利用できない状態になっていますので、残念ながら手作業です。
HTMLソースを読ませれば、titleタグ、meta dscriptionからも抽出は可能ですが、まだ手間がかかります。
8.改善案を出力(ChatGPT3.5でも4でもOK)
これらに改善案をつくるためのプロンプトを実行します。
(数件であれば、人力で作成でよいかと思います。)
ここのプロンプトの詳細は別の機会で解説します。
ざっくりとだけ説明しておくと、
「指定するキーワード」
に対して、
タイトルタグの冒頭に挿入、または移動します。
メタディスクリプションにも、
キーワードを冒頭に挿入した上、クリックしたくなるような
ユーザーにメリットがある、
・資料ダウンロードやセミナーなどの特典記載
・相談ができる、デモができる、などのメリット記載
などを追記し、誘導力を高めるメタディスクリプションに変えます。
9.HTML修正案作成(手作業:ChatGPT3.5でも4でもできる)
修正案ができ、内容確認の上、確定ができたら、実際のHTMLに修正を加えます。
今回はこの手順はやっていませんが、手作業でもよいと思います。ChatGPTに直してもらう場合は、テキスト量が多いと実行できないので、HTMLの冒頭部分のみの修正であれば、指定個所の修正は無理なくできそうです。
10.実装(手作業:CMSに連携すれば近い将来できそう)
今回はこちらの手順はやっていませんが、将来的にはChatGPTとAPI連携したCMSなり、Wordpressのプラグインが一括でやってくれる日が来るかもしれません。
ここまでいけば、検索の順位の割にクリックされていないページに、対象ワードが検索結果画面に入るよう改善を行うということができました。
今回のサンプルデータでは、1,000件のキーワードから52件の改善をやっています。数が増えても、管理画面の下のほうにある見落としがちなキーワードまできっちり条件に当てはめて、拾ってくれます。
データから改善実行までがいろんなテーマで見えてきた
このような手順を見るとデータから分析、分析から改善、改善から実行まで近づいた、ということがイメージできるのではないでしょうか?すぐに自動化とはいかないでしょうが、そんなに遠くない未来にできそうな期待感があります。
ウェブマーケティングでは取り扱うデータが広範囲なので、データから改善の流れを習得すれば、実戦で即戦力となることは間違いなしです。
<データ活用の可能性>
・GA4/アクセスログデータ
・サーチコンソール/検索データ
・営業データ/SFAデータ・商談履歴情報・提案受注状況 ※個人情報、機密情報に注意
・競合データ(Similarweb、Google広告オークション分析等)
・広告データ(google、yahoo!広告、facebook広告データ、広告データ)
・SNSのアカウントデータ
・メール配信結果データ
・顧客DBのデータ※個人情報、機密情報に注意
・プレス反響データ
その他、
・売上などのインターナルなデータ
・ウェブ以外の外部データ(公表されているデモグラフィックデータ等)
など、データ次第で大きく可能性が広がりそうです。
ウェブマーケティングをやっている人であれば、
・アクセスログ
・広告データ
とCode interpreterのコンビネーションは特に期待が大きいのではないでしょうか。
これらcode interpreterによるウェブマーケティングの分析について
少しペースは落ちるかもしれませんが、発信していきたいと思います。
一方で、
ChatGPT習熟への労力が増した気もします。誰でも使えるという感じよりは、習熟度が高い人が作ったプロンプトや手順をもとに、いろいろな人が再現できるようになるという領域が広がるのかもしれません。
また、データの取り扱いへの理解や分析手法への理解も必要になってきそうです。人間側のほうの知性が問われている気がしてなりません。
まだβ版。機密情報はいれないように、気を付けましょう。(本当のデータを扱いたいときは、ダミーデータにしておくことをお勧めします)
みなさまが発見した、良い活用方法があれば、ぜひ教えてください。
この記事が気に入ったらサポートをしてみませんか?