LLMを爆速で処理させる

llama.cppでLLMはここまで早くなる
現状、ローカルPC上で、ここまで爆速になるLLMはないかと
メモリはPCに4GBほど空きがあれば動作する
小さなモデルも使い道を考えることで、メインストリームから外れても楽しめることを見出そう

【メモ:残タスク】
- コンパイルすれば、ユーザーPCでライブラリをインストールすることなく配布できるか確認する
- そのあと、余計なコードを削除して試せるようにする