見出し画像

o3-miniで何でも作れる、その方法を紹介

10,808 文字

o3-miniとカーソルを使えば、Pythonやプログラミングについて何も知らなくても文字通り何でも作ることができます。残念ながら、まだ多くの人がコードに関して制限的な考えを持っていますが、このビデオの目的はそれを打ち破ることです。o-miniは昨日OpenAIからリリースされた素晴らしい新モデルで、あらゆるアプリやソフトウェアプロジェクトを構築することができます。このビデオでそれを実際にお見せします。実は、まだアイデアも決めていません。
o-miniに決めてもらおうと思いますが、まずは新しいプロジェクトを作成しましょう。空のフォルダを選んで新しいフォルダを作成し、空のPythonファイルmain.pyを作成します。はい、何もない白紙の状態です。
では、o-miniを使ってアイデアを考えてもらいましょう。CH GPTの中で使うこともできますし、VLの中でも使えます。VLを持っている人全員にo3-miniへの無制限アクセスを提供したからです。こんな風にセットアップしました。AIツールやAIエージェントの実践的な使用例に焦点を当てたYouTubeチャンネルを持っていて、新しいOpenモデルのo-miniについてビデオを作りたいと思います。そして重要なのは、プロジェクトのアイデアをブレインストーミングする時は、視覚的でインタラクティブで3時間以内に実行できるアイデアを提案する必要があります。
ちなみに、vectalを構築するためのフロントエンド開発者を募集しています。フロントエンドの開発者で、AIの最前線で働きたい方は、ぜひ応募してください。リンクはビデオの下にあります。
理解しておく必要があるのは、左側にあるのはLLMsですが、この2つの新しいカテゴリーははるかに新しいものです。これは強力な推論モデルで、このカテゴリーはますます人気が高まっています。しかし、この真ん中のものは完全に未開拓です。これは高速推論モデルです。o-miniのようなもので、カレンダーアプリを作ってと言えば、比較的早く作れます。はい、文字通り3、4秒で完成です。これは多くの人がまだ使い方を理解していない全く新しいカテゴリーのモデルで、このビデオで探求していくものです。特にo-miniについてです。
では、o-miniモードをオンにして、Pythonで構築できる7つの異なるプロジェクトアイデアを求めてみましょう。
今、o-miniのAPIにコンタクトを取って、私のタスクとユーザーの好みを分析しています。インタラクティブなコードランナー、ウェブベースのコードエディター...AIエージェントで何か作ってみましょう。これは悪くないですね、リアルタイムアイデアジェネレーター。これをカーソルの中に入れて探ってみましょう。
新しいファイルを作成して、project-idea.mdとします。このファイルで、基本的に何を作るのかを説明します。そうすれば、カーソルコンポーザーやチャットを使うときに、これをタグ付けすれば何を作っているかがわかります。1つ目のAIエージェントが異なるペルソナやSLアングルを考え続け、2つ目のAIエージェントがユーザー入力に基づいて異なるアイデアを考えるAIエージェントチームです。
これをコピーしてタスクのコンテキストに入れます。そうすれば、vectalの中に保存されます。とにかく、始める準備ができたと思います。
カーソル内のチャットモードを使って、ここでo-miniモデルを選択してください。chbtが行ったのはウェブ検索機能を与えることです。MacBookにカーソルをインストールする手順を簡潔に教えてと言えば、ウェブを検索し、検索結果について推論し、回答することができます。
まだdeep seekほど良くないのは、これが完全な思考の連鎖ではないということです。これはまだ要約されているように見えます。o1プロモードよりはるかに優れていますが、それはほとんど何も表示しませんでした。完全な思考の連鎖ではなく、完全な推論プロセスではないのが残念です。
見ての通り、cs.comやYouTubeなど、異なるソースがあり、このモデルをウェブ検索に使用できることを意味します。もしCを持っていなくて、どこかで行き詰まったら、このモデルを使ってください。o-miniを使ってください。これらのモデルは信じられないほど強力で、「あぁ、諦めた。これは無理だ」と言える場所はありません。
このモデルがこのプロジェクトを作成するスピードは前代未聞だということがわかるでしょう。私のプロジェクトアイデアをここにタグ付けします。これが作りたいものです。プロジェクトアイデア、はい、ファイルを追加してタグ付けしました。そして「このシンプルなコードベースを作成するのがあなたのタスクです」と言います。
これはAPIにモデルを使用する際の問題です。OpenAIはCH GPTの中で推論トークンを完全に隠しています。ここではまだ推論の痕跡が見えますが、完全なものではありません。しかし、カーソルのようなAPIを通じて使用する場合、カーソルはOpenAIとは異なる会社なので、APIを通じて使用する必要があります。つまり、推論トークンを全く見ることができません。だから4秒の待ち時間があり、vectの中でも推論トークンが見えない理由です。
しかし、deepsモードに切り替えると(ちなみにvectを持っている人は無制限のdeeps R1も使えます)、録音タスクを始めるのを手伝ってと言うと、完全な推論プロセスが見えます。このモデルはまだdeepsの完全な代替ではありません。目的が異なります。繰り返しになりますが、DSE R1は遅い推論モデルで、問題についてより多く考えます。o-miniは少し考えて、素早く答えを出します。そのためプログラミングにはるかに適しており、すぐにわかるでしょう。このモデルはカーソルの中で素晴らしいからです。
はい、AIエージェントにはOpenAIを使います。それでいいですね。カーソルチャットはチャット、つまり相談やアドバイスを得るのに適しています。コンポーザーの方が構築に適しています。ここでもo-miniに切り替えましょう。例えばcommand Kを押すと、o-miniに切り替えられる場所が別にあります。
とにかく、project ideaを見て何を作るのか理解し、main.pyの中にこれらのAIエージェントの基本構造を書き出してくださいと言います。コードは少ない行数の方が良いです。これは私がいつも使うのが好きな素晴らしい問題です。最もシンプルな解決策を提供してくれます。これは私たちが求めているものです。これらのモデルに頼む時、私たちはクリーンでモジュール化されたコードを求めています。
このスピードの速さに注目してください。はい、personaエージェントとideaエージェント、そしてこれを生成するメイン関数があります。ユーザーから入力を得る必要がありますか?はい、または、いいえ。例としてユーザー入力を示してください。まずバックエンドを構築しましょう。
プロンプトエンジニアリングの天才である必要はありません。明確で簡潔であれば良いのです。そして推論モデルの力、これが私が思うに、ほとんどの人がこのカテゴリーの高速推論モデルを理解していない理由です。例えば、食事プランを設計してと頼んだとします。o-overan PRモードを使うと、4、5、6分待って、推論トークンは一切見えず、それでも失敗して「申し訳ありません、エラーが発生しました」と言うかもしれません。これはひどいユーザー体験です。
しかし、通常のLLMを使うと、考えることはできません。食事プランの例では、アレルギー、食の好み、体重、筋肉をつけたいのか脂肪を落としたいのか、年齢、性別など、多くの要因について考える必要があります。これがこれらのモデルの出番です。
私は、これが2025年の大きな話題の一つになると信じています。2025年末にはわかるでしょう。o3-miniのような超高速推論モデルが、今年末までにAIモデルの中で最も人気のあるカテゴリーになると思います。
では、これを受け入れて、何が起こるか見てみましょう。アイデアを入力してください。これを更新する必要がありますね。「無限アイデア工場へようこそ」というプリント文を追加します。それを実行してみましょう。
UIがずっと良くなったと思います。もちろん、これは動きません。OpenAIに接続していないからです。次のステップは、実際にAIモデルを接続することです。これにo-miniを使いましょう。
新しいチャットを作成して、検索が有効になっていることを確認します。もう一つできることは、o-mini Highを選ぶことです。これもo-mini Highですが、それは高い推論努力を意味します。コードの中で使用する時、パラメーターの一つとしてreasoning_effort=highを設定できます。vectalでそうしました。
これはo-mini Highです。ch GPTでこれを設計した人は、もう神様...モデルがいくつあるか見てください。1、2、3、4、5、6、7、8。これは一般ユーザーのためのものではありません。すでに混乱を招いています。今、VLには世界最高の3つのモデルがありますが、これでもシンプル化すべきだと思っています。OpenAIはchbtの中に8つのモデルを持っています。うーん。
とにかく、Python AIエージェントでgb40を使用するための公式OpenAIドキュメントを見つけてください。お互いに話すAIエージェントで、両方ともトークンストリーミングが必要です。これはすでに終わっているようですね。
私が言っている通り、このモデルは信じられないほど速いです。o-miniは素晴らしいです。今、o-miniを使えない理由、ほとんどの人が使えない理由は、OpenAIが制限を設けているからです。platform.open.comに行って、プロフィールをクリックすると(ちなみにCH gbtと同じアカウントでログインすることをお勧めします)、制限をクリックすると、使用階層が表示されます。
昨日、私は理由もなくOpenAIに250ドル使って階層4に到達しました。しかし、そうしなければo-miniにアクセスできません。そして厄介なのは、私でもまだo-miniを使えないことです。なぜかはわかりません。友人の一人からAPIキーを借りなければなりませんでした。o-miniにアクセスを得るには、数週間か数ヶ月guを使用している必要があります。
これは、DC(deep seek)が勝っているもう一つの理由です。OpenAIがoモデルに対して貪欲だからです。誰にでもアクセスを与えているわけではありません。数ヶ月にわたって何百ドルも使わないとアクセスを与えてくれません。APIを通じてこのモデルを使用するのは非常に難しいです。
だから私はCH gbtにgbt 40を使うように頼みました。サム・アルトマンは競争を望んでいないからです。競合他社がo3-miniで簡単に構築することを望んでいません。deep seekがすぐにR2やV4をリリースするかどうか、見てみましょう。
私たちや自分のスタートアップを持つ人々がOpenAIに対して持っている一つの利点は、私はdeep seekをvealに追加できる、新しいSonet 3.5をvectalに追加できる、DC V4が出たら即座に追加できるということです。サム・オールドマンはOpenAIでそれができません。彼らは自社のモデルしか使えません。そうしないと、Microsoftが即座に彼らを見捨てるでしょう。
とにかく、何があるか見てみましょう。まずOpenAIをインストールする必要があります。ここには表示されていませんが、実際にドキュメントに従うことができます。developer quick startに行きましょう。URLはplatform.open.comのdeveloper quick startです。APIキーが必要なので、それをやりましょう。
新しいENVファイルを作成します。APIキーは神聖なものとして扱い、パスワードのように扱ってください。誰とも共有してはいけません。
OPEN_API_KEYを設定し、platform.open.AIのダッシュボードをクリックし、ドキュメントセクションにいますが、左のダッシュボードをクリックし、右上のAPIキーを作成をクリックします。vl.aと名付けて作成し、コピーします。繰り返しますが、誰とも共有しないでください。このビデオをアップロードする前に私のキーは無効にします。control Vでペーストして保存します。
これが環境変数です。GitHubにアップロードする場合は、必ずこれを.gitignoreファイルに入れて、誰かにAPIキーを盗まれないようにしてください。
さて、AIエージェントを追加する必要があります。ここで新しいENVファイルを作成したことを伝え、APIキーをタグ付けし、ウェブで見つけたminiの構文をペーストします。はい、これをコピーしてカーソルの中にペーストします。
上の構文に従い、コードが提案するのと同じモデルを使用するようにしてください。そして、私のお気に入りのPRの一つを使います。深呼吸してください。これは結果を改善することが証明されています。そして、10倍のエンジニアのように進めてください。
ただし、これをすると100行のコードを書くことになるので、コードはできるだけ少ない行数にしてくださいと言う必要があります。さて、4秒の遅延があります。これは考えているからです。OpenAIは推論トークンを私たちから隠していますが、心配いりません。サム・アルトマンはどちらにせよ勝つでしょう。
これが終わった後の推論について、これは中程度または高速カテゴリーのモデル、この真ん中のものが好きな点です。より多くの時間をかけることができます。o1-miniやo3-miniに複雑な質問をすると、今カーソル内で私がしたような質問をすると、10秒以上、おそらく15秒以上考えることになります。しかし、シンプルな質問をすると、3、4秒考えてから答えを出します。これは一般ユーザーにとって、そして正直に言えばあらゆるユーザー、あらゆるユースケースにとってはるかに実用的です。
では、これを素早く見てみましょう。ちなみに、カーソル内でものを確認する方法は、一つずつ承認することです。そうすれば何が起こっているかがわかります。ファイルの承認も、特に今は空のプロジェクトなので大丈夫です。リスクはありませんが、良い習慣は一つずつ見ていくことです。
インポートと環境変数からAPIキーを取得することは良さそうです。そして、次のコード部分に移る前に、何を削除して何を追加したいのかを見ます。これも良さそうです。これを承認しましょう。
これは動くでしょうか?おそらくいくつかの更新が必要だと思いますが、主な問題はここにあります。OpenAIパッケージがありません。何も知らない、これが何かわからない、カーソルやo3-mini、コーディング、ビルドに新しいとしましょう。修正のためにコンポーザーをクリックするだけで、何をすべきか理解してくれます。
私はすでに修正方法を知っていますが、どうなるか見てみたいと思います。はい、pip install openaiを実行したいようです。これは正しい解決策ですが、私はKを使っているのでキャンセルします。ちなみにKを使っていると言います。
まず、アクティブなenvsを確認しましょう。Kについて知らない場合、解決策は何でしょうか?vectal、perplexity、chgptに聞いてください。これを繰り返し言う理由は、皆さんがそうしていないからです。まだGoogleに行くか、もっと悪いことに、行き詰まってしまい、「あぁ、このエラーに遭遇した。これは私には向いていないんだ。ソフトウェアを作ることは私の運命ではない」と思ってしまいます。
それは負け犬の考え方です。即座にその考えを捨てる必要があります。Kが何かわからない場合、Kとは何か、そして私たちのタスクに役立つかどうかを尋ねてください。そしてo-miniをオンにします。
vectは、あなたのアクティブなタスク、作業中のすべてのこと、仕事の説明、短期的な焦点、長期的な焦点、ユーザーの好みについての知識を持っています。また、これらのインジケーターを追加して、何がより多くのコンテキストを必要とし、何がすでに十分なコンテキストを持っているかを理解できるようにしています。
これが本当に強力にする要因です。時間をかけてこれらを記入する人は皆、絶対にVを気に入っています。超生産的になりたい人で、生産性の未来がどのようなものか体験したい人、タスクを自動的に整理し、完了を支援するAIエージェントを持ちたい人は、vad.aiに行って試してみてください。後悔することはないと約束します。
文字通り毎日良くなり続けています。o-miniがリリースされてから24時間以内、18時間くらいでvの中に入っていました。Kはパッケージ管理ツールで、condaを作成することができます。私たちのコンディックタスクのために、condaを使用した例を示す予定なら、物事を整理するのに役立つでしょう。
その場合、MacBookにインストールする明確な段階的な手順を教えてください。明確な指示を提供してくれます。どこかで「デイビッド、これを見せなかった」と思ったら、AIに聞けば、AIが見せてくれます。
とにかく、これを構築しましょう。アクティブな環境をリストアップしました。テストの一つをオンにしましょう。適切なコマンドさえ与えていません。普通の英語で話していますが、o-miniは壊れた英語でも理解し、あなたが望むことを実行する最初のAIモデルです。
諦めない限り、試し続ける限り、少し学び、より多くのコンテキストを与える限り、どんなソフトウェアでも構築できます。o3-miniは非常に強力なモデルです。信じられないほどです。
すでに78行のコードがありますが、まだテストしていません。テストMが有効になりました。素晴らしい。ここでOpenAIパッケージをインストールしましょう。ここでの問題はOpenAIがインストールされていないことですが、まず正しい環境にいることを確認したかったのです。ここでも有効にする必要があります。テスト、はい。これで解決しました。
APIキーがあり、これらのものがあります。動くはずです。指を交差させて...この通知を閉じて、実行してみましょう。何が起こるか見てみましょう。これをきれいにしましょう。無限アイデア工場へようこそ。
入力してください。何も起こりません。main.pyスクリプトを実行すると、最初のウェルカムプリント文だけが表示され、残りのコードが実行されないと説明します。自分でデバッグしようとさえしません。プログラミング経験がなくてもできることを示したいからです。
これを修正してください。o-miniはこのファイルを分析し、問題が何かを理解します。おそらくメインの実行部分に問題があります。今、一生懸命考えています。10秒以上かかっていますが、それは良いことです。ここで考える必要があるからです。そして生成しています。
はい、コードを書くのがとても速いです。信じられないほどです。何が起こっているのか説明しましょう。正直に言うと、順番が間違っていると思います。はい、生成しています。メイン内の順番...まだ書き続けています。面白いですね、何が起こるか見てみましょう。
これが問題です。OpenAIは推論トークンを見せてくれないので、モデルが何を考えているのかわかりません。サム・ティムマン、欲張らないでください。APIで推論トークンを見せてください。
プロンプトを更新します。私のプロンプトはおそらく本当に悪かったからです。問題はおそらくmain.py関数にあり、まずユーザーにどんなアイデアを生成したいか尋ね、その後で2つのAIエージェントをループで実行する必要があります。
はい、そこにあります。なぜ見えなかったのかわかりません。カーソル内でこのようなことが起こった時は、新しいコンポーザーを作成する必要があります。すべてのモデルでいずれ起こります。それは新しいコンポーザーを作成する良い指標です。
これをここにペーストして、通常のコンポーザーを選びます。エージェントの代わりに、エージェントのものは本当にSonet 3.5を中心に構築されているからです。まだo-miniに最適化されているとは思えません。通常のコンポーザーの方が安定すると思います。
スピードが信じられないほど速いです。o-minは素晴らしいモデルです。誰が何と言おうと気にしません。これを承認しましょう。これはベストプラクティスではありませんが、時間を節約するためです。
どんな種類のアイデアを生成したいですか?LLMsによって革新されるSaaSタイプまたはSaaSカテゴリーのスタートアップアイデアを生成してください。
今、何が起こっているのかをプリント文で見たいと思います。テストの方法...はい、ここにあります。10個の異なるアイデアがあります。論理を見てみましょう。Personaエージェントがあり、Ideaエージェントがあり、Personaがペルソナを作成し、それがIdeaエージェントに送られます。ペルソナとユーザー入力がシステムプロンプトの一部です。
基本的に、これは創造性のレイヤーを追加します。疑似創造性です。LLMsは本当の意味で創造的ではありませんが、これはCH gbtを使用するよりもはるかに良くなります。なぜなら、まずPersonaエージェントがあなたのアイデアに関連する非常に適切なペルソナを作成し、それをIdeaエージェントに送るからです。
例えば、スタートアップを立ち上げる場合、イーロン・マスクに聞くことは非常に価値があるでしょう。フィットネスを目指している場合、専門家に聞く、ボディビルダーになりたい場合はアーノルド・シュワルツェネッガーに聞くことが価値があるでしょう。そのように、正しいペルソナを与え、それに基づいてアイデアを生成することは非常に強力な戦略です。
明らかにこれをもっと良くすることはできますが、私の目的はo-miniでいかに速くものを構築できるかを示すことでした。このモデルは信じられないほどのスピードでコードを書きます。そして、5、7秒考えてからコードを与えます。
皆さんにも、カーソルの中で、chbtの中で、vealの中でこのモデルを試してみることを強くお勧めします。このモデルは本当に新しいカテゴリーであり、このカテゴリーは完全なブレークスルーです。o-miniはかなり遅れていましたが、o-miniは本当に次のレベルにいます。
deep seekの代替とは思いません。両方のモデルを使うべきだと思います。だからvectalの中に両方を残しました。しかし、各モデルは異なることに使用されます。vectとchgbt、カーソルで、正直に言えばvectとカーソルだけでも、何でも作れると本当に信じています。
だから、必ずカーソルを入手し、カーソルに支払ってください。そうすれば良いモデルにアクセスできます。まだ多くの人がカーソルの無料版を使っているのを見かけますが、それは本当に残念です。無料版では、gp4のようなモデルさえ使えません。GPT 40 miniを使用しますが、これはひどいモデルです。有料版ではo-mini、Closs 5、Sonetを使用できます。
AIツールにケチケチしないでください。正しく使えば、年間数百時間、毎月数十時間を節約し、はるかに強力になれます。超生産的になりたい人、生産性の未来がどのようなものか体験したい人、タスクを自動的に整理し、完了を支援するAIエージェントが欲しい人は、vectに行ってください。
例えば、一つお見せしましょう。Python appにOpenAIモデルo3-miniを統合するのを手伝ってください。これは大きなタスクで、私は完全な初心者です。これを6つの小さなステップに分けて、それらのサブタスクを作成してください。
これがvectが本当に輝く場所です。これらが邪魔にならないように完了しましょう。大きなタスクを追加しました。ああ、これをどうやって完了させればいいかわからない、デイビッドと思うかもしれません。例えば、アイデアがあり、スタートアップを立ち上げたいけれど、どこから始めればいいかわからない。はい、vealに聞いてください。ステップに分解してくれます。
すでにあなたのことを知っています。もし5、10分かけてユーザーコンテキストを記入していれば、あなたの長所、短所、取り組んでいるプロジェクト、経験があること、ないことなどを知っています。そして、他のアクティブなタスクとあなたのすべてを考慮に入れて、各ステップを個別に取り組める関連性のある計画を作成します。
各ステップに余分なコンテキストを入れる必要さえないことがわかります。例えば、「よし、今ログインしてみよう」とか、o-miniをオンにしてみましょう(ちなみにvectの中ではo3-miniに無制限にアクセスできます)、ステップ1を実行してみましょう、段階的な指示を教えてください。何かで行き詰まって、本当に最大の推論を活性化させたい場合は、deeps R1をオンにすれば、無制限のdeep seek R1メッセージを使用できます。
はい、vectは本当に毎日良くなっています。それを言うだけではありません。本当にそう思います。vealを持っていれば、Discordサーバーにいて、左上の数字がv37、v38などと上がっていくのを見ることができ、文字通り毎日か1日おきに上がっているのを見ることができます。改善のペースは他に類を見ないものです。
ちなみに、フロントエンド開発者を募集しています。素晴らしいフロントエンド開発者であれば、ぜひ応募してください。リンクはビデオの下にあります。

いいなと思ったら応援しよう!