見出し画像

あなたのコンピューターでDeepSeekを動かす方法(100%プライベート)

10,637 文字

私の名前はDavid Andreです。ここではあなたのコンピューターでDeepSeek R1を動かす方法をお伝えします。DeepSeek R1は1週間前にリリースされた中国のAIモデルで、App StoreとGoogle検索の両方でChatGPTを追い抜きました。このビデオでは、このパワフルなAIモデルをあなたのコンピューターで100%プライベートに実行する方法をお見せします。
DeepSeek R1はo1と比べて27倍も安価なだけでなく、より優れています。DeepSeekがR1の訓練を続ければ、同じコストでO3 miniを明らかに上回っていたことから、O3を超えることでしょう。DeepSeekは非常に巨大で、世界のリーダーたちも言及し始めました。トランプはアメリカ企業への警鐘だと述べました。彼が心配しているのは、アメリカ市民が無意識にすべてのデータを中国に送っているということです。正直に言って99%の人々がそうしていますが、最後まで見ていただければ、PCとスマートフォンの両方でこのモデルを自分でホストする方法を学ぶことができます。
DeepSeekのリリースにより、NVIDIAやAMDなどのチップ提供企業を中心に、アメリカ企業の株式市場は6,000億ドルの損失を被りました。明るい面では、AGIがオープンソース化される可能性が高くなったということです。
DeepSeekの素晴らしい点は、メインのR1モデルが6,710億のパラメーターを持っているということです。これはあなたのコンピューターでは実行できないということを意味します。しかしDeepSeekは6つの小さな蒸留モデルもリリースしており、これらも非常にパワフルです。つまり、7,000ドルのMacBookを持っているか、適度な10年前のコンピューターを持っているかに関係なく、あなたはDeepSeek R1をローカルで実行できます。完全な初心者でもその方法をお見せします。
DeepSeekでは人気の爆発により世界的な停止が発生し、使用が increasingly困難になっています。過去48時間で、メインのチャットの使用が事実上不可能になりました。そのため、私はすぐにDeepSeek R1をvectalに追加し、誰もが無制限にアクセスできるようにしました。その通りです。vectalを使用すれば、無制限のDeepSeek R1へのアクセスが可能です。さらに、私たちのサーバーはヨーロッパにホストされているため、中国があなたのデータを見ることはありません。vectal.aiにアクセスして、今すぐサインアップしてください。
Sam Altmanは、DeepSeek R1に対してこう述べました:「DeepSeek R1は印象的なモデルです。特に価格に対して提供できるものについては。私たちはもちろん、もっと優れたモデルを提供するでしょう」。少し自尊心が見られますね。また、「新しい競合が現れることは本当に刺激的です。いくつかのリリースを用意します」とも述べています。これが単なる言葉だけなのか、それともO3が世界を驚かせることになるのか、見てみましょう。
現在のChatGPTが、少なくとも一般の人々の目には劣っている理由がここにあります。通常のLLMは次のトークン予測を行うだけです。ちなみにトークンはおよそ単語の3/4です。これは簡単な明確な回答には十分ですが、複雑な問題には最適ではありません。そこでDeepSeek R1のような推論モデルが活躍します。
人間のように問題を批判的に考えることができるのです。誰かが暗号めいたメッセージを送ってきて、その意味が全くわからないとします。すぐに自分で返信しようとするのではなく、あなたの知る10人の賢い人々にこのメッセージが何を意味するかを尋ねます。そして10人全員からの最良のアイデアを最終的な返答として使用します。推論が本当にパワフルなのは、プロンプトが悪くても問題にならないからです。AIが考えてくれるからです。通常のLLMに送ると、単に答えを吐き出すだけなので、プロンプトが悪ければ答えも悪くなります。さらにDeepSeekは思考の連鎖を見せてくれます。o1では行わない推論トークンを実際に表示してくれます。
過去数日間、OpenAIに関する多くのコーピングが行われています。他の技術的変化と同様に、多くの人々がDeepSeekの成功を否定しています。そしてそれらの多くの人々はAI業界にいます。OpenAIモデルの上に自分のビジネス全体を構築することを想像してください。別のプロバイダーに変更することは、コストがかかるだけでなく、非常に時間がかかる可能性があります。しかし、適応性を保つ必要があります。2025年は変化の年になるでしょう。
ここ2週間でAI分野が炎上しているため、物事が急速に進んでいると感じるかもしれませんが、これはほんの始まりに過ぎません。あなたが持っているすべての硬直的で静的な信念を捨てる必要があります。それらはあなたを後退させるだけです。適応性を持ち、新しいことを素早く学ぶ必要があります。
理解しなければならないことの1つは、オープンソースの力です。オープンソースとは、AIモデルの中身を実際に見ることができる、つまり重みにアクセスできるということです。これにより、開発者は自分のニーズに合わせてモデルをファインチューニングすることもできます。たとえば、法律目的やプログラミング目的のDeepSeekバージョンがあり得ます。そして最も重要なことは、このビデオで行うように、モデルを自分でホストできるということです。
現在、中国が勝利している理由はここにあります。米国は長い間AIのリーダーでしたが、中国は急速に追いついています。最高のAIモデルを訓練するにはエネルギーが絶対に重要です。そして中国は米国よりもはるかに多くのエネルギーを生産しています。また、世界最高の人材も持っています。そのため、DeepSeekはSam AltmanのConjecture社と同じ価格で構築することができました。その上、中国は世界で最も高い平均IQを持つ国の1つであり、これは確かに害にはなりません。
しかし、中国が開発しているのはDeepSeekだけではありません。Qwen、Kimi、Yi、これらは過去数日間にリリースされた新しいAIモデルのほんの3つに過ぎません。すべて中国から来ており、すべてオープンソースで、米国から来たクローズドソースモデルを完全に打ち負かしています。その多くは強化学習のおかげです。これはAIモデルが試行錯誤で学習するトレーニング方法です。
Navalが美しく説明したと思います。子供に自転車の乗り方を教えることを想像してください。詳細なマニュアルを与えることもできます(これが教師あり微調整です)。しかし、自分で試させた方が(これが強化学習です)、より良く学ぶでしょう。転んで、起き上がって、徐々に改善していく。だから強化学習はそれほど強力なのです。これがDeepSeekの成功の秘密です。
さて、構築に取り掛かりましょう。実際にモデルをローカルで私たちのコンピューターで実行してみましょう。私はvectalを使用します。これは文字通りこのために完璧だからです。
以下がプロンプトです:DeepSeek R1という新しいAIモデルをローカルで私たちのコンピューターで実行したいと思います。oLLaMAをダウンロードしてセットアップし、そこからモデルをインストールする必要があります。この大きなタスクを4つの小さなステップに分け、各サブタスクを作成してください。
それを送信して、vectalが魔法のように動作するのを見てみましょう。ちなみに、これは私たちが最近リリースしたアップデートです。タスクとノートを作成し、タスクを小さなステップに分割する機能です。はい、そこにあります。そして、必要なタスクが表示されます。
完全な初心者で、Homebrewが何かわからないとしましょう。混乱していると言ってみましょう。「私は初心者で、Homebrewが何かわかりません」。oLLaMAのウェブサイトを使用しましょう。素晴らしい、最初のタスクを直接ダウンロード方法に更新しました。
最初のタスクをクリックすると、詳細な手順とコンテキストを確認できます。URLをコピーしてoLLaMAに移動します。これを初めて行う場合は、ダウンロードをクリックしてオペレーティングシステムを選択します。私はmacOSなので、macOSインストーラーをダウンロードします。macOSを使用していることを既に知っているので、それを実行しましょう。vectalが指示することに従いましょう。
ダウンロードフォルダを開いて、ファイルを解凍します。解凍したら、oLLaMAを探し、このようなラマのアイコンを見つけます。それをダブルクリックします。これによりoLLaMAがアプリケーションとしてインストールされます。ターミナルを怖がる必要はありません。再度申し上げますが、素敵なユーザーフレンドリーなチャットインターフェースに入れる方法をお見せしますが、ポップアップやナイスなUIは期待しないでください。
oLLaMAをダウンロードしてインストールしました。次にoLLaMAサービスを起動する必要があります。再度、Spotlight検索でoLLaMAを開くだけで、右上にラマがあることでわかります。oLLaMAサービスを起動したら、それをクリックオフできます。DeepSeek R1モデルを取得する必要があります。
oLLaMAに戻り、左上のモデルをクリックすると、人気があるためDCR1がここに表示されます。既に240万回ダウンロードされていますが、表示されない場合はdeepseekと入力すると表示されます。モデルをクリックすると、ここですべての可能なバージョンが表示されます。15億から6,710億まであります。
おそらく「でもDavid、どのモデルを実行すべきか、自分のコンピューターで何が処理できるのか、将来これらのローカルAIモデルを実行するためにどのコンピューターを買うべきかをどうやって知ることができますか?」と考えているでしょう。良い質問です。なぜなら、新しい社会では、AIモデル用の最高のハードウェアセットアップトップ3のガイドを作成したからです。教室のテンプレートとプリセットセクションで簡単に見つけることができます。
このガイドや他の独占コンテンツにアクセスしたい場合は、新しい社会に参加してください。下にリンクがあります。とにかく、DeepSeekに戻りましょう。ほとんどの方は、decent なコンピューターをお持ちなら7Bまたは8Bモデルを実行できるはずです。14bまたは32bを選択することをお勧めします。32bは最高のサイズ対パフォーマンスモデルの1つです。32bは実際にGPT-4.0よりも優れています。
ChatGPTの無料版を使用している場合、このモデルはそれを圧倒します。しかし、明らかに私は70bを使用します。なぜなら、それを実行できるからです。ここで右クリックしてこのコマンドをコピーします。oLLaMAは非常に簡単にします。ここをクリックするだけでコマンドをコピーでき、次にターミナルを開く必要があります。
vectalに「このモデルをインストールするためにこのコマンドを実行する必要があります。ターミナルを開くにはどうすればよいですか?」と尋ねてみましょう。vectalは私がMacbookを使用していることを既に知っているため、私に特化した詳細な指示を提供します。Spotlightをクリックし、terminalと入力してEnterを押します。Windowsを使用している場合は、Windows用の指示が表示されます。
これは、Sonnet 3.5やDeepSeekなどの最高のLLMでタスクやアクティブプロジェクトに取り組むことが不可欠な理由です。vectalでは、簡単にDeepSeekモードを有効にできます。「OpenAIを打ち負かすにはどうすればよいか。彼らができない、あるいはやりたくないことは何か」といった、より高度なタスクがある場合、推論を助けてくれるDeepSeekは絶対に理想的です。
さて、軌道に戻りましょう。ターミナルの指示に従いましょう。それを開いて、ここにコマンドを貼り付けるだけです。最初に実行する時は、メッセージを送信するのではなく、モデルをインストールするためのローディングバーが表示されます。これには1-2分から20-30分かかります。再度申し上げますが、選択したモデルによって異なります。15億のモデルはわずか1ギガバイトなので、2分でインストールできます。70億のモデルは43ギガバイトです。コンピューターのストレージ容量に注意してください。
今、ここで私のMacBookでローカルで完全に実行されている質問をすることができます。既に音が大きくなってきているのがわかります。「2x + 3 = 11を解け」と入力してEnterを押してみましょう。think タグが表示されているのがわかります。これは応答の推論部分にいることを意味します。DeepSeekには推論と最終応答があります。推論では、複数のオプションを考慮します。
ここで見られるように、「まず変数xを分離することを目指します。3を引くことから始めます」など。そして解決策に自信を持ったら、/thinkタグで推論部分を終了し、解決策を提供します。これが最終的な答えです。OpenAIのo1やo1 miniなどの推論モデルは推論を表示しません。最終的な解決策のみを表示します。そのため、DeepSeekが爆発的に人気を集めているのです。一般の人々がAIモデルの考え方を見ることができるからです。AIモデルの舞台裏を見ることは絶対に魔法的です。
とにかく、これを実際の素敵なUIに入れたいと思います。なぜならターミナルでの実行は良いですが、実用的ではないからです。vectalに戻りましょう。モデルを取得し、それを実行したことがわかります。DeepSeekモードをオフにします。「oLLaMAに関するすべてのタスクを完了しました。今度はAnything LLMをインストールし、新しいDeepSeekモデルをそこから実行したいと思います。これに対する3つのサブタスクを作成してください」。
はい、そこにあります。タスクを完了するための3つのサブタスクを作成しました。それらを明日に設定しましたが、今日に移動させましょう。これはvectalができる別のことです。一度に複数のタスクに複数の変更を加えることができます。
次のタスクは、Anything LLMをダウンロードしてインストールすることです。GoogleでAnything LLMと入力し、最初のリンクをクリックします。これでダウンロードページに移動します。デスクトップ用ダウンロードをクリックし、オペレーティングシステムを選択します。私はMac OS Apple siliconなので、それを選択して保存します。
ダウンロードしたら、インストーラーをダブルクリックしてAnything LLMアプリをインストールします。次に開く必要があります。Anything LLMと入力して開きます。初めて実行する時は、オンボーディングプロセスが表示されます。スキップを何回かクリックしてこのページに到達します。
ここで新しいワークスペースを作成したいと思います。左上の新規ワークスペースをクリックし、vlと名付けます。保存し、ここにある設定アイコンをクリックします。このワークスペース特有の設定を設定したいと思います。デフォルトでは何らかのモデルを使用しますが、oLLaMAを使用したいと思います。
下にスクロールして、ここでoLLaMAを見つけます。そうすると、利用可能な異なるモデルが表示されます。oLLaMAが実行されていることを確認してください。実行されていない場合は、インストールしたoLLaMAインストーラーを実行します。ここでは、インストールしたすべてのモデルが表示されます。ターミナルでも確認できます。olama listと入力すると、インストールしたすべてのモデルが表示されます。
見ての通り、DeepSeek R1 70b、Llama 3.3、Mistral、そしておそらくアンインストールする古いモデルがいくつかあります。ここにあるモデルの中で最高のものを選択します。明らかにDeepSeek R1がこれらの中で最高なので、それを選択します。他の設定については、チャット履歴を20のままにしておきます。
ここでシステムプロンプトを指定できます。新しい社会で私自身が設計したシステムプロンプトの1つを使用できます。テンプレートとプリセットの下に、プロンプトと指示セクションがあり、20以上の最適化されたプロンプトがあります。これらすべてが必要な場合は、下にリンクされている新しい社会にアクセスしてください。
時間を節約するためにデフォルトのままにしておきますが、明らかにこれは変更する必要があります。これは非常に悪いプロンプトです。温度は0.1にします。推論モデルが実際にそれを受け入れられるかどうかわかりませんが、とにかく低いほど一貫性が高くなります。
新しいスレッドを作成して、応答を得られるかどうか見てみましょう。その前に、タスクリストを確認しましょう。Anything LLMをダウンロードし、設定を構成しました。残るのはDeepSeek R1 70bをここでテストすることだけです。何か難しいもの、適切なテストを与えましょう。
「AIモデルのコーディング能力をテストしたいと思います。非常に難しいPythonタスク、コンソールで実行できるPythonスクリプトで作成できるもの、理想的には視覚的で素敵なものを与えてください。4つの異なるオプションを提供してください」。
ちなみに、デフォルトでvectalは世界最高の通常のLLMである新しいSonnet 3.5を使用し、そしてDeepSeek R1は世界最高の推論モデルです。私たちはvlの中に両方を持っています。とにかく、既に答えがあります。3Dキューブシミュレーターを作りましょう。ASCIIアートで回転する3Dキューブを、Pythonだけで、そして私のコンピューターでローカルに実行しているモデルで作ります。
Anything LLMに戻りましょう。「あなたのタスクは、3D回転キューブのPythonコードを書くことです。完全なPythonスクリプトを出力し、すべてのコードを1つのファイルにまとめてください」。実行してみましょう。
希望として、私のMacBookがオーバーヒートしないことを願います。70億のモデルを私のコンピューターで実行しながら録画しているからです。128GBのRAMを購入したことを絶対に後悔していません。なぜなら、ほとんどの方が ChatGPT 4.0の中で使用しているものを上回るDeepSeek R1 70bのような素晴らしいモデルを今実行できるからです。
だからこそ最先端にいることは価値があります。ChatGPTは単なる1つのAIツールに過ぎません。複数のものを使用する必要があります。どれが最高のモデルか、どれが最高の推論モデルか、最高の通常のモデルか、ローカルで実行できる最高のモデル、電話で実行できる最高のモデルに注意を払う必要があります。
ちなみに、これが実行されている間に、クールなアプリをお見せしましょう。Apollo AIと呼ばれています。私のエディターが画面に表示するでしょう。約6ドルで、現在はiOSのみだと思いますが、オープンソースモデルをローカルで実行できます。ここには7億バージョンをインストールしています。
oLLaMAに戻れば見せられます。バージョンを見ることができます。これを私は電話でローカルに実行しています。この7億パラメーターのモデルです。このモデルは依然として素晴らしく、オフラインの状態でiPhoneでローカルに実行できます。
これが魔法です。中国に行くことを心配している場合、これらのモデルを電話やコンピューターでオフラインで実行できます。パワフルなコンピューターをお持ちの場合は、70bや32bをマシンやコンピューターに、そして7bや1.5bを電話に搭載できます。これは説明が必要なことです。
まだ実行中かどうか確認しましょう。はい、まだ実行中です。明らかにこれはゆっくりと実行されています。なぜなら、私のコンピューターで70億のパラメーターモデルを実行しているからです。応答には数分かかります。その間に、重要な概念を説明する必要があります。
世界の人口を想像してください。80億人になります。まだコーディング中でしょうか?はい、まだコーディング中です。私が描いている間もバックグラウンドでコーディングしています。AIが素晴らしいと思わない人がいるなら、私にはわかりません。
とにかく、80億人です。その1%は何でしょうか。これは誤解です。トップ1%に入ると思っています。しかし、1%でも8,000万人います。確かに、これらのAIツールを使用し、AIに注目することで、あなたは1%に入ります。それは8,000万人です。しかし、AIからの、この技術的なブームからの本当の利益は、8,000万人には行きません。そのような大きなグループに平等に分配されません。
AIに興味を持っているすべての人々のうち、おそらく1%か2%、最大でも、おそらくさらに少ない、おそらく0.5%のグループです。これが真にAIから恩恵を受けるグループになります。おおよそ80万人です。これらの80万人が、AIを使って人生を変え、AIエージェントで退屈で繰り返しの作業を自動化し、AIスタートアップを構築して7、8、9桁以上にスケールアップする人々です。
私の目標は、あなたたち、これを見ている人々が1%の1%に入ることを確実にすることです。これが違いです。ローカルでモデルを実行し、プロンプトエンジニアリングを理解し、cursor、perplexityなどのツールを使用することが、この小さな1%の1%のバブルに入れる方法です。私の目標は、あなたたち、これを見ている人々がその80万人になることを確実にすることです。
まだ十分な余地があります。なぜなら、私たちはまだ20万人にも達していないからです。80万人の1%の1%に入りたい場合は、購読することを確認してください。そうすれば将来のビデオを見逃さず、AIの最先端に到達できます。
Anything LLMに戻りましょう。素晴らしい、そこにあります。300秒、つまりほぼ正確に5分かかり、1秒あたり約4.8トークンでした。1秒あたり5トークンと呼びましょう。これは非常に遅いですが、再度申し上げますが、MacBookで非常にパワフルなモデルを実行しているのです。神のために、これはラップトップなのです。
とにかく、ここにスクリプトがあります。コードをコピーしてcursorに貼り付けます。86行のコードがあります。これが最初の試みで実行されるかどうか見てみましょう。これはローカルで実行されているモデルの単一のプロンプトです。エラーがないことを願っています。素晴らしいことです。
実行してみましょう。そしてそこにあります。明らかにキューブは非常に小さいですが、再度申し上げますが、私のコンピューターでローカルに実行されているモデルにとって、エラーなく実行されることは素晴らしいことです。明らかに定義できます。複数のプロンプトを与えることができます。「ああ、神よ、David、それは私が想像したようではない」と制限されないでください。これは単一のプロンプトです。フィードバックを与えることができ、それは別の4-5分かかりますが、そこに到達します。
もう1つのことは、より速いバージョンが必要な場合、実際に複数のモデルをインストールする必要があります。そのため、70bを実行できる場合は、32bもインストールする必要があります。そうすれば、より速く実行できます。5分待つ時間がない場合は、より小さなモデルを実行できます。または、最初のプロンプトをパワフルなモデルで実行し、14bや8bに切り替えて、それらで改良するということもできます。これは実際に私自身がもっと使用すべき戦略です。
複数のモデルをダウンロードすることを確認してください。取得できる最高のものと、より速いものです。そうすれば、より速い応答が必要な場合、1秒あたり30トークンや50トークンを得ることができます。
以上で終わります。ご視聴ありがとうございます。DeepSeekの成功を見守ることは素晴らしいことです。このようなビデオをもっと見たい場合は、購読することを忘れないでください。そして、超生産的で時間を無駄にしたくない、できるだけ効率的でありたいと思う方は、V.AIをチェックしてみてください。素晴らしいと思います。
これはAIを搭載したタスク管理ツールで、実際に時間を節約してくれます。vectal.aiにアクセスして試してみてください。すべてのvectalユーザーはDeepSeek R1に無制限にアクセスできます。他の人々がDeepSeekチャットへのアクセスに苦労している間、私たちはvectalの中でスムーズに簡単に、ヨーロッパのサーバーで実行しています。つまり、あなたのデータは中国に行きません。
繰り返しになりますが、vectal.aiにアクセスして試してみてください。失望することはありません。以上です。ご視聴ありがとうございます。素晴らしく生産的な一週間をお過ごしください。さようなら。


いいなと思ったら応援しよう!