いや~~ GPTQ といえば
Good Prompting Technique Quiz
ですよね~~~
まぁ、嘘ですよね~~~
はい。
なんか一部で GPTQ というのが流行っていたのでシュッと論文を読んでみたという話です。はい。
What is GPTQ ???
GPTQ: Accurate Post-Training Quantization for Generative Pre-trained Transformers
ということで量子化に関する学習の話みたいですな!ガハハ(*´▽`*)
今となってはあまたの論文を読んだワタクシ bbz 。ChatGPT と DeepL 様の力を借りれば恐れるに足らず、、、!!
いざ参らん!!
(*´▽`*)
(*´▽`*)
(*´▽`*)
(*´▽`*)
(*´▽`*)
(*´▽`*)
(*´▽`*)
さっぱりわからん(*´▽`*)
そこでワタクシは ChatGPT との深い対話に入るのであった。。。
綴る。。。プロンプトを。。。そしてまた。。。綴る。。。
そうしてあまたの対話を経て私はようやく理解した。。。
ワタクシと ChatGPT 先生の導き出した GPTQ の特徴とは、、、?
量子化そのものの学習を行い、元のモデルと量子化後のモデルの性能誤差を限りなく小さくしている(量子化の最適化をしている)
そして量子化に加えて蒸留を組み合わせて行っている
量子化はざっくり言うと情報量を削減して軽量化すること
(本来であれば性能が劣化するのであるが、元のモデルとの性能差が小さくなるように最適化している)
そして蒸留とはざっくり言うと教師モデル(元のモデル)の性能を引き継いで(というか質をなんとか保ってといった方がいいかしら?)生徒モデルをつくること
この二つを最適化して実行するにことによって元のモデル性能を維持したままの軽量化ができている、、、、!!
蒸留については明示的にかかれていなかったので修正!!
2023/06/08
ということ!!
知らんけど(*´▽`*)
シュッと読んでシュッと書いたのでおしまい。