見出し画像

なぜ米国企業は積極的に取り組むのか?「生成AIの課題を解決する生成AI」とは?

前回に引き続き、東芝テックCVCの米国駐在員としてシリコンバレーで活動する橘髙とCVC室長 鳥井にインタビューを実施。

生成AIについて深掘りすべく、今回は米国企業で活用が進む背景や、生成AIにおける課題などについて、現地で活動する中で感じることを話してもらいました。

生成AI活用による株主からの期待とは?

――前回は生成AIの使われ方やAI人材、スタートアップの資金調達に関する米国と日本の違いについて聞いてみましたが、企業が生成AIに取り組む背景などについて、違いなど何か感じていることはありますか?

鳥井:BtoB向けに関しては、米国と日本で対比的に大きな差があるなって個人的には感じています。米国だと生成AIを活用しないと企業価値が下がりますよっていう株主のプレッシャーがすごく高い気がするんです。一方、日本はそこまで株主のプレッシャーが強くない。そういった生成AIに取り組むスタートアップを取り巻く事業環境の違いが、生成AI系のスタートアップの生まれ方やお金の集まり方の差を生んでいるように見えるんだけど、その辺について橘髙さんは現地で活動する中で感じることはあります?

橘髙:IRで生成AIをやっていることをアピールすると株主の評価が上がるみたいな話はあるかもしれないですけど、どちらかというと、まずインフレがすごいですし、人を雇うことのハードルも高まっていて、アフターコロナといっても完全に労働力が戻ってきていない中、大統領選挙でも残業に対する課税の是非が議論されるぐらい、効率化や従業員へのインセンティブ、労働力を増やすことが重要になっている。そういった課題に対して救世主みたいな感じで、AIを使って自分たちの企業課題を解決しようという動きのほうが強いように感じています。

鳥井:そういう雇用の問題やハイサラリーの問題を考えたときに、生成AIを使ってもっと生産性を上げないと収益性がキープできないっていうところが背景にあって、株主もプレッシャーをかけているのかもしれないですね。株主だけでなく企業側もその課題を認識しているから、より積極的に取り組もうとする流れができているのかな。

橘髙:そうですね、当然GAFAMとかテック系スタートアップは自社のプロダクトなどにおいて生成AI関連にフォーカスし、投資してますけど、そうではなくこれまでAIとは関係なかった企業でも、今までの事業はキープしつつ、自分たちの効率性を上げるために、お金をかけてオペレーションにAIを取り込んでいこうとしているようなニュースをよく見ますね。

もともとあるツールとか、アプリケーションを自分たち用にカスタマイズするためにスタートアップを買収したり、ファウンダーを引き抜くみたいな動きがありますし、Walmartのように自社でAIを活用するために社内でチームを作るケースもありますね。後者はちょっと特殊かもしれないですけど。

複数のAIを組み合わせたサービス設計がトレンドに

――生成AI活用が急速に進む一方で、著作権関連のリスクやハルシネーション(生成AIが事実と異なる情報を出力してしまうこと)などの問題は日本でも議論されています。米国ではどのような課題が挙がっているのでしょうか?

橘髙:セキュリティやデータガバナンスについてはけっこう議論が進んでいます。例えばChatGPTのWeb版でまだリリースされていない自社の情報を入力すると、その情報は基本的にChatGPTのナレッジとして蓄積されていくので、ピンポイントで出させるのはなかなか難しいとはいえ、外部に流出してしまうリスクはあります。そのようなデータソースの管理に特化したLLM(大規模言語モデル)のスタートアップが新たに登場していますし、各社もデータガバナンスに関するポリシーに注力していて競争が生まれているように感じます。

例えばWebサイトってソースコードを見ることができると思うんですが、ソースからどのデータベースにつながっているのかが分かったとしても、セキュリティ対策がきちんとできている会社が作るWebアプリだと侵入や攻撃ができないと思います。

そういうデータガバナンスがしっかりしている会社や知見のあるエンジニアがいる会社であれば、90%は全く同じモノでもハッキングされにくい、データが流出しにくい加工を自分たちでできると思うんです。でも、そうではない会社でもChatGPTとかを使ってワークするアプリを作ることができちゃうので、そうするとその脆弱性や弱点を狙われてしまうリスクがあると聞きました。

今は“JavaとかPythonで〇〇のコードを書いて”とAIに指示するだけで、プログラミングのコードを生成して簡単にアプリケーションが作れるだけではなく、さらにエラーが出てきた場合、バグも生成AIで自動解決できちゃうという話もあって、それはそれですごく便利なんですけど、一方でその参照元がオープンソースの情報だったりすると、セキュリティが十分でない可能性もあるんですよね。

鳥井:今、 AI のモデルを作るときに2つのAIモデルを作る、エージェンティックアプローチなどが普及しつつあるように思います。

――LLMごとに役割が分かれているイメージでしょうか?

鳥井:そうですね、コード生成が得意なAI、デバッグが得意なAIなどを組み合わせてサービスを設計するようなアプローチですね。

OpenAIやMetaが提供しているのは汎用型のAIなので、質問に対して割とジェネリックな回答を生成しますよね。そこから一歩踏み込んで特定の領域や自社に合わせた回答を生成する手段として、独自の情報を追加するRAG(Retrieval-Augmented Generation)や、事前学習したLLMを別のデータセットで再学習させるファインチューニングといった手法があります。ただ、毎回新しいデータが入ってくるたびに再学習させるとコストがかかりますよね。そこも生成AIとチェックするAIによって自動化しようとするアプローチが進みつつあると聞いています。

橘髙:ちょうどその話で思い出したんですけど、今は同じLLMを使って全く同じ質問を投げても、趣味嗜好に合わせて生成AIが人の回答を学習し返すことができるようになってきていますが、さらに進んだものも出てきているんです。

例えばChatGPTとかAnthropicのClaude、Meta、ほかにもスモールレベルのものも含めてたくさんある中で、「この人の質問に回答するなら、この人が一番喜びそうな回答が出やすいモデルを選択しよう」という形でAIモデルをコントロールして質問を投げるようなサービスですね。

イメージで例えると、リテールメディアで個人の購買データやロイヤリティの情報をもとにこういうものを買うだろうな、っていう予測や個別アプローチは既にできるようになっていますが、さらに消費者が買いたくなる文章ってどういうものなのかを生成AIが見極めて、同じ商品をおすすめする場合でもAさんとBさん、それぞれに合わせて買いたくなるようなメッセージを送れるようになる感じです。
メールマーケティングの場合だと、継続的にメールを開封してもらうためにどんな情報を送れば良いのかを判断し、カスタマイズして送るような活用イメージですね。

米国でニーズが高まりつつある、生成AIのコスト最適化

――実際に複数のAIを活用したサービス(エージェンティックアプローチを利用した)に関連するスタートアップで注目しているものはありますか?

橘髙:例えばNot Diamondというスタートアップは、プロンプトに対して複数のLLMの中から最適なLLMを自動選択して出力してくれるサービスを提供しています。今、いろんな生成AIモデルが世の中に出てきていますけれど、ChatGPTやAnthropicのClaudeってめちゃくちゃハイスペックなんですよね。簡単な質問に対してハイスペックな生成AIモデルを使用するのは、ロウソクの火を消防車で消すようなもので、コストの観点から考えると非常にもったいないんですよね。
もっと簡単なクエリーに対しては安いLLMで対応するというような、LLMの最適化や複数モデルを活用してコスト最適化を図る動きが一つのトレンドとして出てきている印象がありますね。

鳥井:こういう情報を共有してもらって、日々やり取りすることで日本にいる投資チームの目線を合わせたりすることも橘髙さんの大切な役割になってますね。

――ありがとうございます。日々の活動で得た情報をやり取りするのは双方刺激になりそうですね。

いろんな変化が起きている中で今後はどうなるのか?そして、リテール領域にはどのように活用されるのかも気になるところなので、次回はそのあたりをお聞きしたいと思います。

●第1回記事はこちら

●第3回記事はこちら