大規模言語モデル(LLM)やそのツールの情報整理2024.10版

前回はPerplexity AIの競合になりうる新サービスGensparkを取り上げた。個人的な感触としてはagent機能をうまく使って調査を組み立ててレポートを返してくれるGensparkは、良い感じに調査を丸投げして結果だけ見たいときは良いと思う、β版なので今後どう進むかわからないけど。一方で対話的に調査を進めたいときはperplexityの方が小回りが利いて良いと思うし、自分の仕事の進め方にあってる、となんとなく切り分けができてきたと思ったら次のツールが出てきたww

Feloはperplexityのガチの競合になりそうな感じ。使ったり調べたりするにデータソースが違うらしい。feloの方が外国語の扱いが得意、日本企業なので英語ありきでは考えてないことに起因するのか出力結果もしっくりくる。パワポスライドやマインドマップで出力できる機能もなかなかいい。暫くはFeloとperplexityを並行して使ってみよう。

他に話題なのはMorphic、僕の環境だと日本語だとエラーが出たり、職場からアクセスできなかったりするが、動くと結構いい感じに速い。

gearindigoってのも良い、まだ使ってないけど、要件定義などのドキュメントとコードの間の行ったり来たりをサポートしてくれるようだ。ITコンサルが助かるだけで終わるのか、企業のIT部門が自ら使うようになるのか。。。

あとv0もよく聞くようになった。プレゼン資料を出したり開発をサポートしたりという感じ。こんなにいろいろ出てくるとsign-upが必要なツールとかつい触るのを後にしがちww

AIコードアシスタントは調査業務並みにニーズ・利用シーンがハッキリしてるから市場が見えて進みが早い。生成AIにビジュアルプログラミングも重ねれば、もっと可能性は広がるんだろうな、もちろん限界もあるとして。

動画生成AIも進んでる、こっちは自分の仕事に直結しないのでノーマークにしがちだけど、前回の記事を含めて横目で把握ー

スマホなどエッジ端末で動かしたいとか、セキュリティー問題もあるのでローカルでLLMを動かしたいというニーズが増えてきた。
それに対応するオープンなLLMとしてllamaを試しているけど、まともな回答を得ようとするとGPUを含むハイスペックな機器が必要。ローカルで動く≒簡単に動かせると思われがちだが、それだけの機器を準備してねと顧客にも説明しなくては。

個人的に気になるのはLLMによるマルチエージェントシステムの進展。学生時代にゲーム理論をやって、そのビジネスへのアプリケーションを考えてマルチエージェントシミュレーションに着目してた時期があった。ビッグデータブームさえ来る前だった当時の技術やニーズでは防災関連のソリューションくらい、その後にデータ利活用が進んでもマルチエージェントの業務活用だけは進展しなかった、マルチエージェントでなければできないシーンというのが無かったから。
それが今ではLLM同士を会話させるアイデアからいとも簡単に進展する、、、マルチエージェントはLLMをウォッチしつつ、僕自身の思考はマーケットデザインやマッチングの方に進めようww

https://github.com/openai/swarm

個々の企業に視点を移すと驚いたのはPrompt generation - OpenAI API、多少雑に書いてもLLMが期待する回答をしてくれるプロンプト自体を生成してくれるという機能を充実させにいってること。
プロンプト作成に行き詰った時にChatGPT自身に作成・修正させてみたこともあるし方向性は理解はできるが、プロンプトマーケットプレイスというビジネスの出現を想像していた身としては、持たざる者でも知恵で稼ぐ場がなくなってwinner takes allだなぁとつくづく実感。。。

気を取り直して次はgoogle、これまで取り上げた話題もカバーできてるし、ノーベル化学賞を受賞したのはGoogle DeepMindで更なる進化も期待できるし、やはり対抗馬はココだよなぁ

Anthropicのclaudeが進化しているのは気にしてたし、notionの内容がclaudeだとは認識してたが、zoomやgit、braveも顧客として載っているのが、おぉそうなんだー、という驚き。

もちろんMSとか、日本だとPFNやGMOもソリューションを出してる。エンジンはOpenAIかgoogleか使いつつ、ラストワンマイルのサービス、ユーザにいかに使えるかというところ。個人的には日本企業だと前述のfeloやgearindigoを推したいww

あとは技術的なトピックの補足と、

数学的な問題にアプローチしてる論文は後で読む

Xユーザーのelvisさん: 「Has mathematical reasoning in LLMs really advanced? This study tests several SoTA models on a benchmark created with symbolic templates that enable diverse mathematical problems. They find that LLMs exhibit variance when responding to variations of the same questions. The https://t.co/cLjUKZp90q」 / X

この記事が気に入ったらサポートをしてみませんか?