素人がLlma3.1を使ってみた
Llama3.1とは
いつの間にやら、世の中は生成AI戦国時代に突入しております。我も我も生成AIたちが名乗りを上げております。
今日はMeta社からChatGPTを上回るAIが出ました。たぶん明日は別のが…
Llama 3.1 モデルは、これまでで最も先進的かつ高性能な Meta のモデルです。8B、70B、405B のパラメータサイズモデルのコレクションであり、幅広い業界ベンチマークで最高のパフォーマンスを示し、生成人工知能 (生成 AI) アプリケーションに新機能を提供します。(だそうです)
始め方
早速使っていきましょう。まずはqroq.comにアクセスします。あとは使うだけ。。なのですが、Meta社からいろいろ説明動画が出ていたので、要約してみました。ただ要約しても良くわからなかったので、一番分かりやすい箇所だけ抜粋しました。
デモで使った問題例
リンゴとバナナの数の計算
川を渡る際の犬と人間の移動
Tシャツを干す時間の計算
これらの問題に対する応答は、モデルの論理的思考能力を示しています。特に複雑な問題に対しても、適切な解答を導き出すことができました。つまり正確に計算できたようです。
実運用
あとは実際の運用で使ってみます。
お客さんからpsdファイルなるものが送られてきましたが、開くにあたってどうもphotoshopが必要なようです。
ソフトがないので、どうすればよいか聞いてみました。
GIMPでファイルを開けるのは分かったので画像ファイルとして出力する方法も聞いてみました。
無事解決できました!
使い方としてもっと有益な使い方はあるのかと思いますが、素人としてはこれでも十分満足です。ChatGPTでもいいやん..という声もあるので、パフォーマンスを以下掲載します。
上の図で分かる人には分るでしょうが、私には分からなかったので、スペックの違いを聞いてみました。
Llma3.1とChatGPT4oの違い
LlaMA 3.1:
モデルサイズ:13.6億パラメーター
訓練データ:45億パラ���ーター、300GBのテキストデータ
アーキテクチャー:トランスフォーマーベース、エンコーダーとデコーダーの組み合わせ
スピード:10-15トークン毎秒
メモリー使用量:16GB
ChatGPT 4.0:
モデルサイズ:17億パラメーター
訓練データ:45億パラメーター、1.5TBのテキストデータ
アーキテクチャー:トランスフォーマーベース、エンコーダーとデコーダーの組み合わせ
スピード:20-30トークン毎秒
メモリー使用量:32GB
ChatGPT 4.0は、LLaMA 3.1よりも大きなモデルサイズとより多くの訓練データを持っています。これにより、ChatGPT 4.0はより正確で一貫したテキストを生成することができます。
一方、LLaMA 3.1は、現代語彙を処理し、現在のイベントに基づくテキストを生成する能力があります。また、LLaMA 3.1はChatGPT 4.0よりも新しいモデルなので、現代語彙に対応する能力が高いかもしれません。
結局、LLaMA 3.1とChatGPT 4.0の選択は、特定のニーズと目標に基づいて行う必要があります。LLaMA 3.1が好ましい選択肢になる場合、ChatGPT 4.0が好ましい選択肢になる場合もあります。
なるほど。。人間と違って自身のことも実に客観的に比べます。
現在無料で使えるので、ChatGPT4oはちょっとお休みして(生成AIのサブスクズが地味に痛い..)こちらを使っていこうと思います。
実はLlama3.1とChatGPT4oを擬人化してみたのが表紙の画像です。これを見る限りGPT4oの圧勝です。というかLlamaは人にすらなりませんでした。ただのラマです。
ところでLLaMA 3.1って本当は何て言うん..?
この記事が気に入ったらサポートをしてみませんか?