OpenAI税に対抗したい
大曽根と申します。AIの1人会社をやっています。従業員はいないので、実質フリーランスのAIエンジニアみたいな身分です。
1年くらいのんびりやっていたのですが、AI業界の搾取レイヤー構造が意外と知られていないことに最近気がついたので、備忘録がてら記事にまとめることにしました。
AI業界の人にとっては当たり前な内容だと思うので読まなくて大丈夫です。
a16zのブログより、AI業界のレイヤーは以下のようになっています。
ブログでも書かれていますが、今のところ最も収益を上げているのはインフラであるNvidiaです。
ただ、現状いわゆる生成AIの分野でNvidiaを避けて通ることはかなり難しいです。なのでNvidia税は無視します。
クラウドについても、本当はオンプレが安いのですが最近はすぐにGPUが買えないので無視します。
問題はOpenAI税です。
現状生成AIに取り組むにあたって、ちょっとした工夫でこのレイヤー構造から逃れられる唯一の箇所だと思っています。
ChatGPTが普及したことで、とりあえず生成AIやるならOpenAIのAPIを使おう、みたいな空気になっていると思います。
ただ、真面目に計算するとOpenAI APIはかなり高いです。まぁあれだけ大きなLLMを運用しているので仕方ないです。
ただ、OpenAIが万能、みたいに思われていますがそこは違います。
OpenAIのAIは不適切な回答をしないようにチューニングされているためカスタマイズが難しかったり、小規模なLLMでも特定のタスクに限ってはGPT-4の性能を上回ることがあります。
そこで登場しているのがOSS LLM勢です。
日本語モデルでもStabilityAIやELYZAが70Bパラメーターのモデルを出しています。
うちも昨年6Bパラメーターの小説モデルを公開しました。
このモデルをチューニングしてAI BunChoという小説執筆支援サイトを運営しています。
使っていただければわかると思うのですが、ラノベっぽいタイトルを出すことに関しては、GPT-4などよりも優れていると思います。
このように、特定のタスクに絞れば、数十億パラメーターのモデルでも、工夫すれば数千億パラメーターのモデルに優ることは可能です。
ただ現状、OpenAIが正義と思われ過ぎているような気がしています。
自分はここにはそろそろ限界が来ると思っており、もうそろそろローカルLLMの価値が見直されてくる時期かと思っています。
理由は
1. ネット上の学習データが底を尽きるのでGPT-4のようなベースモデルの能力がサチる
2. Claude3やGeminiの登場で、結局学習データでしか差がつかないことが周知される
3. ベースモデルはカスタマイズには不向き
4. とりあえずOpenAIのAPIを使っていた企業が料金が高いことにだんだん気がつく
からです。
ブログでも
と書かれています。現状、高いOpenAIのAPIを使った上で利益を出すことは至難の業です。
ということで、今後はLLMの良いところを活かしながら、低コストなシステムにまとめていく技術に価値がより生まれていくはずです。
でも、なかなかローカルLLMをどうやって使ったら・カスタマイズしたらいいか難しいですよね。
そこで! お困りの方は、ぜひお気軽にご連絡ください(宣伝)。
自分は日本で(恐らく)初めてwebサービスにLLMを組み込んで運用した経験があります。APIを使っていたら大赤字だと思いますが、お陰様で一応黒字で運営できています。
以上、お読みいただきありがとうございました。