おすすめのテキスト生成AIサービスはどれ?ChatGPT/Bard/Claude2など話題のLLMテキスト生成AI徹底比較!
みなさんこんにちは、ネッコスの井口です!
ChatGPTの公表から先、様々な生成AIができてきていよいよもってAIが時代に定着してきたという実感がわいてきますよね。
しかし、いろいろな生成AIがこぞって発表されたことで今度は逆に、それぞれがどんな特徴で何が違うの?的な疑問がわいてきてる人もいると思います。
そこで今回は実際に使ってみて、それぞれの生成AIの特徴がどんな感じなのか、簡単にまとめたいと思います。ただ、用途によっていろいろと種類が変わるので今回は一番ポピュラーに利用されている大規模言語モデル(Large Language Models、LLM)を利用したテキスト生成AI編になります。
もしよろしければお付き合いください。
テキスト生成AIの種類
さて、とりあえず今回比較に挙げるテキスト生成AIの種類をここで簡単に紹介していきたいと思います。
実際様々な種類が発表されてからいろいろ触ってる人もいるかと思いますが、そうでない方はお付き合いいただけたらと思います。
ChatGPT(GPT-4)
まずトップバッターはやっぱりChatGPT、GPT-4になります。今回は3.5は置いておいてGPT-4の特徴だけ紹介していきたいと思います。
特徴としては自然言語処理が強いこと、学習データが執筆時点では2023年4月までの段階、プロンプトに使えるトークンが通常だと32kまでという弱点も持っています。
多言語に対応していて、日本語でのやり取りも簡単というのも強みだと思います。やはり手軽に利用するとなると日本語で聞きたいものですよね。
また今ではopenaiからの利用で画像生成なども一緒に対応してくれるのも特徴です。
ファイルを読み込ませることもできるようになっているので、複雑なプロンプトをある程度簡単に渡すことが可能です。
Copilot(旧BingChat)
次は同様にGPT-4を利用しているCopilotになります(これちょっと紛らわしいとみんな思ってますよね…)。
特徴としては、Bingと連携して回答を検索結果から取得してくれるので情報の精度や正確性が他の生成AIより高く、知りたいことを回答してもらうことに向いています。
ただし、ネット上からの情報の要約や整理なので、業務サポートとか文章のたたき台作成といった事にはちょっと向いていません。
ただ問題としてCopilotはEdgeのインストールとEdgeブラウザの利用が必要、Bingの検索AIは普通のブラウザ上での利用が可能です。
Google Bard(PaLM2)
Googleが現在Beta版を公開している自然言語AIです。現状はブラウザ、アプリ上もしくはGoogle検索結果での利用、Googleアカウントが必須です。
こちらはベータ版でかつ開発中を明言しているので、精度的には不安があるかもしれませんが2つの回答例を出してくれたり(フィードバックのためですが)変わった機能があるのも特徴です。
そして何より、検索エンジンであるGoogleのモデルなのでほぼWEB上の情報をもとに学習しているテキスト生成AIの中でもWEB上の情報の取得が早く、データの更新も早いです。現段階でも2023年10月までの情報を利用しているらしいので更新の頻度は期待できます。
LLaMA2 Chat
Facebookから社名をMetaに変え、そしてAIの開発にも乗り出して開発されたLLaMA モデルを利用した対話型AIモデルになります。
モデルが公開されていてローカル環境での利用も可能なので、ベースのモデルにしてファインチューニング、もしくは発展学習がしやすいのが特徴です。
WEB上では
ここから利用することができます。
こちらではChat用にファインチューニングされていて、軽量のモデルなのも利点、もちろんファインチューニングされてるモデルもダウンロードすることができます。
問題としては基本返答が英語になることですね。もちろんDEEPLなどの翻訳を嚙ませて利用すれば良いのですが。Chatbotだと日本語でたまに返してくれるですけどね…。
Claude2
Anthropicの自然言語AIで、なんと言っても以前も書いたかもしれませんが渡せるトークン数が多い、そして無料プランでもPDFファイル等を読み込ませることができるのが特徴です。
もちろん日本語にも対応していますし現段階ではGPT-4と双璧をなす文章生成AIと思えます。
こちらも前提条件をファイルで渡すことができるので、より精度の高いプロンプトを作成するのが容易になっています。
学習用データが2023年初頭までの物と言われているので執筆時点でのGPT-4よりも新しいデータを学習してくれています。
OpenCALM-7B
あまり聞きなれない名前かもしれませんがサイバーエージェント社が開発した日本語特化のLLMモデルです。こちらもモデルが公開されていて、チューニングがしやすいのが特徴です。
ただ、WEB上で触れる場所がないのでローカル環境に構築できる人のみが利用できるものになります、つまりGPUが強めなマシンを持っていないと利用が難しいのが弱点です。
まだまだ発展途上で精度的には微妙な気もしますし、気軽に扱えないという点では今回はいまいちと言えるかもしれません。
その他国産のWeblab-10Bや中国アリババのQwen-7Bなどがありますが私自身も触れたことないので今回は割愛させていただきます!
各テキスト生成AIの比較
まずは簡単に各テキストAIの機能についてまとめてみました。
という事でその中での会話精度や情報の新しさ、利用できる機能やWEBでもローカルでも利用できるかなどをスプレッドシートの表にして〇△×で評価しています。
利用料金
まず利用料金ですがこれは無料のLLaMA、Claude2、Copilotが強いですね。
でも一番ポピュラーになってるのが現在GPT-4ですでに有料プランで利用している人も多そうなのでそこまで気にすることはないのかもしれません。
会話精度
次に会話精度ですが、開発中のBardとOpenCALM-7Bがやや不安が残るところです。ここはプロンプト次第なのかもしれませんが、自然な状態で利用できるのはGPT-4ベースかClaude2ではないかと思います。
日本語対応
日本語対応はほとんどがしていて、入力については今回出したAIは全部対応して意図を読んでくれます。出力についてはLLaMAだけがやや怪しく、ローカル利用では日本語出力は無理そうでした。
WEBでのChatbotを利用する分には、日本語での返答をお願いすると日本語で返してくれるのですがモデルをDLして利用するとダメでした。
利用上限
利用上限は、Copilotだけでなく有料のGPT-4もClaude Proも存在していますが、LLaMAには存在していません。またどのみちモデルをローカル環境で利用する場合は自分のPCに負荷がかかるだけなので利用上限は存在していません。
利用可能状況
WEBでの公開がされているか、ローカルでの利用ができるか、といった観点で見ています。普段利用するのは業務の補佐とかになるのでWEB上でどこでも利用できる方が助かりますね。
ローカルで動かすにはゲーミング的なPCが欲しくなってきますし…
また、そこにはインターフェース的な使いやすさも含まれます。CUIに慣れてない人はブラウザ上に表示されるGUIの方が絶対に使いやすいですし、コマンドのミスなどもないので素直に使うことができるのは大きいです。
カスタマイズ
ここでのカスタマイズは追加学習・ファインチューニングできるかどうかで考えています。検索エンジンとセットで運用されているCopilotやBardは当然ながらカスタマイズはできません。
LLaMAもWEB上で利用する分には追加学習は不可ですが、モデルがDL出来るのでローカルでは一応いくらでも可能です。
今のところ優勢なGPT-4もClaude2も可能なのでここは強いですね。APIとつないだりして業務用のカスタムモデルを作成したいという用途ではモデルの置き場所も必要なほかのAIよりも対応しやすいです。
ファイル読み込み
気付いたらどんどん発展してきた機能ですが、ファイルを読み込ませることで分析や翻訳、また画像の解説などいろいろなことが行えます。
ChatGPTはGPT-4でないとできませんがClaude2とLLaMAは無料での利用にもかかわらず対応しています。
とはいえ、LLaMAはトークン数がそこまで多くないので今のところはClaude2が一番優勢でしょうか。GPT-4の利用可能トークン数が増えてきてから、どうなるか改めて評価したいですね。
WEB読み込み
ファイルと同じように、URLを渡してその中身をもとにいろいろとしてもらうことができるのは今のところBingと連動しているGPT-4、Copilotのみになります。
GoogleのBardが現段階で出来ないのはちょっと意外でしたが、まだ開発中だからであり、きっと今後は同様の機能が出てくるんだろうなと思います。
WEBページを読み込めると、最新情報にアクセスできるし翻訳作業や概要の収集などが楽になるので助かりますよね。
Copilotはさらに自分で検索結果の情報を調べに行ってくれるので情報の正確度も高いです、この機能GPT-4でも標準になってくれないかなとちょっと思っています。
結論
さて、ここまで様々な面でテキスト生成AIを比較してきましたが非常に簡単な結論としては現状WEBが見れてファイルのアップロードもできる、そして画像生成などの機能も含まれているGPT-4が有料とはいえ一番使い勝手がいいと私は思います。
利用するためのコツや方法などもたくさん情報がネットにあるので、調べやすいところも大きな利点です。
とはいえ、日進月歩のAIの状況を考えるとこれはすぐにでもひっくり返る話かもしれません。もしくはローカル利用タイプのモデルがStablediffusionのように急激に流行る、という可能性もあるのであくまで記事を書いてる段階の物です。
ここからも情報をしっかり集めておいて枯れないように、そして便利なものやDXに役立てられるものをしっかり見つけていきたいなと思います!
それではお付き合いいただきありがとうございました!