【Core ML】 coremltools 8 / iOS 18の新しいモデル圧縮手法 #WWDC24
WWDC24のセッション "Bring your machine learning and AI models to Apple silicon" のセッション内で、Core MLモデルのさまざまな最適化手法について解説されている。
本記事ではその中の「モデル圧縮」についてまとめる。
なお同セッションで解説されている「Stateful model (ステートフル・モデル)」については下記記事に、
「Transformer optimization」については下記記事にまとめた。
モデル圧縮の重要性
ローカルLLMやCore ML版Stable DiffusionをiOSデバイスで動かすことを試みているときにこの課題は強く感じた。
サイズが数GBもあるとアプリバイナリに含められないし、
ユーザーにDLさせるにもデカすぎるし、
メモリを食うので落ちるし、
推論時間もかかるし、
古い端末で動かないし
etc…
モバイルで機械学習モデルを動かす際のすべての問題の元凶がモデルサイズ。つまり機械学習モデルをモバイルデバイスで快適に動かすにはモデル圧縮がキーとなる。
ここから先は
5,300字
/
21画像
日々のキャッチアップに応じて、記事を追加していきます。記事が充実していくに従って価格変更していくので、早めの購入(買い切りです)がお得です。
#WWDC24 の勉強メモ
980円
WWDC 2024やiOS 18, visionOS 2についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。 …
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/