はじめに
ローカルでLLM(Large Language Model)を実行できるOpen WebUIには、様々な機能を追加するFunctionがあります。面白そうなものがOpen WebUIのコミュニティに登録されていたので紹介します。
※ 【PR】Open WebUIの詳細な導入方法は下記事で紹介しています。
モンテカルロ木探索思考法を利用して、何度も回答を推敲・改善していきます。
Visual Tree Of Thoughtsの導入
「ワークスペース」→「Functions」→コミュニティのページを開きます
コミュニティーにログインしていない場合は、手動でコピー&ペーストする必要があります。
※ ToolsやFunction機能は、LLMがPythonスクリプトを実行する事になるので、安全なコードである事を確認してください。
「+」ボタンで新しいFunctionを追加します。Function Name, Function Description, コードをコピーペーストして保存します。
有効にします。念のためにブラウザを一旦閉じて再読み込みします。
導入は以上で終わりです。
動作テスト
導入後は、上部プルダウンメニューのモデルに「mcts-」が名前の先頭についたものを選択できるようになります。
LLMは、Mistral社&Nvidia社&Cyberagent日本語チューニングモデル「mistral-nemo-japanese-instruct-2408-Q4_1.gguf」を利用します。
本当に論理思考が改善するかどうかを確認するために、下記問題を解かせてみます。
まずは、Function(mtcs)を利用せずに、Mistral-nemoに回答させます。
「DはAとBの間に座っています」が明らかに間違えています。
次にFunctionを利用してみます。
「BはEの右隣です。実際にはB=4, E=5なので、右順になります。」「右隣は左から右に並べたときの意味で考えます。したがって、BがEより前に配置される」の解釈があまり理解できませんが、先生からみた生徒とすると正解になります。ちょっと強引ですが。
ちなみにChatGPT-4oだと、「E, C, A, D, B」となり、「BはEの右隣に座っています」が違います。英語で思考するので、右側と解釈したのかもしれません。
Geminiだと、「C, A, D, B, E」になりました。MCTSと同じ間違いをしています「2. BがEの右隣 B - E」。やはりAI基準では、先生から見た生徒達なんでしょうか??
まとめ
実際に実行すればわかりますが、かなりの時間が必要です。ChatGPT-o1の月々30万円プランのように、何度も推論を行って電気代を消費すればするほど性能が上がるということですね。
以下、関連する記事の【PR】です。