
O3-mini~ちっちゃいけどo1より強い~
世界はDeepSeek一色ですね。
中国のAI技術が凄い!ということで、ここ最近話題のDeepSeek。
推論モデルのDeepSeek R1というのも出てきて、Open AIのo1と同じかこれをしのぐ位の性能だとかというニュースが出てました。
しかも、それがオープンソースで公開されてるから世界は騒然ですよね。
o1と同等レベルがオープンソースで公開されるとんでもないことが起きてしまって、METAの面目も丸つぶれみたいな状態になってるようですw
DeepSeekのすごい所はこれだけではありません。
メモリ負荷を抑えるアプローチ
私たちがAIと会話する時を想像してみてください。
AIは私たちがChat等で入力された自然言語の意味を学習して、自身が学習している内容をもとに近しい意味を推論して文字を起こしていってますよね。
これまではこの処理を1~100まで真面目に計算するのが普通でしたが、これってよく考えると非効率ですよね。
関連する意味や知ってる情報の抽象度を上げたら、全部確認しなくても一部関連しているところだけしらべればよくなりますよね。
コーディングの内容を説明しているのに、料理についてのナレッジと比較して時間と労力つぶす意味ないですもんねw
というようなことで、DeepSeekだと様々な工夫をしているそうです。
結果として・・・なんとGPUメモリの使用率も大幅に圧縮できたそうです。
この結果・・・NVIDIAの株が暴落したり、電力関係の株価もさげたそうですね。
NVIDIAの時価総額91兆円が蒸発したとかなんとか・・・桁が多すぎてついていけません。
というか、下げる意味もわからないですよね。
GPUメモリ少なく行けるなら、より多くの企業導入や個人への導入につながる可能性が出てきたようなもんですよね。
私としては買い増しかなと思ってましたが、17%の上記下落の後9%ぐらい戻してきたそうです。
とはいえ、中国企業だし利用規約を見ると学習データとしてユーザ情報を使うと明記されてるそうなので使う時は注意ですね。
どこかいい使い場所ないかなと思ってたところ、perplexityで実装されてました!

というように、いつもはOPEN AIがGoogleとかにやっていた衝撃的なニュースをDeepSeekにもってかれてましたねw
しかしながら、OPEN AIも昨年末の約束通りo3-miniを出してきたんですよね。
O3-mini~早い!そしてコーディングに強いらしい~
O1-proの方がDeepSeek R1やO3-miniよりも性能がいい(体感でも性能がいい)んですが、遅いんですよね・・・
2~5分とか待たされるので、自分と並行して考えて両方のアイデアを見て…のような使い方になっちゃうんですよね。
O1-miniは回答がめちゃくちゃ早いですが、いまいちな回答が多かったと思います。
でも、o3-miniは・・・なんとo1よりもSTEM性能が上らしいんですよね。
STEMとは「Science(科学)」「Technology(技術)」「Engineering(工学)」「Mathematics(数学)」の頭文字を取った用語なんですが、この中で例えばコーディングであればこんな感じで性能向上しているそうです。

ほほ~ちょっと試してみたくなりますね。
速度が速い~そして推論力の調整も可能
このO3モデルですが、推論する強度が決めれるそうなんですよね。
mini/midium/hightとあるそうです。
chat gptのGUI上はminiとhightがありました。
miniで試すと1~数秒で、hightでも7~10秒?(早いときはもっと早い)という感じです。
O1-Pro使ってると回答に物足りなさを感じたりはしますが、レスポンスが欲しいときはかなり使えそうなイメージでした。
今度、自宅のCML整備と合わせてo3-miniでRAGやembeddingできるようなのを試しに作ってみようかなと思います。
o3-miniでガチャガチャやりつつo1-proに同じ内容で回答を求めたらどっちが強いかを見てみようかとw
ここから先は

Segment Routing
このマガジンは主にSegment Routingについて書いています。 Segment Routingがよく分からんけど仕事で使うという…
この記事が気に入ったらチップで応援してみませんか?