
孫正義氏が語る!過度なプロンプトは逆効果?
⇧前回の記事では「特化型AIエージェント」の進化についてお話ししましたが、今回はAIモデルそのものがどのように進化しているのかを見ていきましょう。
最近のAIは、単に情報を処理するだけでなく、人間のような「考える力」を持ち始めています。特に、OpenAIの新シリーズ(通称:o1やo3など)では、人間のIQに換算すると120相当とも言われる推論能力が搭載されていると言われています。
では、こうしたAIの進化によって、私たちの使い方はどう変わるのでしょうか?

① 過度なプロンプトは逆効果?
これまで、「AIに良い回答をさせるためには、詳細な指示(プロンプト)を作り込むことが大切」と言われてきました。しかし、新しいAIモデルは自律的に考える力を持つようになってきたため、むしろ細かく指示を出しすぎると、AIの潜在的な提案力を抑え込んでしまうリスクがあるのです。
例えば、
×「このレポートの要約を、簡潔な言葉で200文字以内に、フォーマルなトーンで作ってください。」
よりも、
◎ 「このレポートを要約してほしい。」
とだけ伝えた方が、AIが自律的に「どの情報が重要か」を判断し、より最適なアウトプットを出してくれることが増えてきました。
つまり、「指示をしすぎないこと」が、これからのAI活用のカギになるかもしれません。

② 人間の質問力よりもAIの“ヒアリング力”が上回る
もう1つ重要なのが、最近の高度なAIは「指示が曖昧でも、自ら質問を返してくる」ようになったことです。
例えば、
「企画書を作って」と言うと、
「ターゲットは誰ですか?」
「プレゼン用ですか?それとも社内資料ですか?」
「どのようなトーンで作ればいいですか?」
といった質問をAIの方からしてくれる。
これまでなら、ユーザーがプロンプトを細かく作り込まないといけませんでしたが、今はAIが勝手にヒアリングを進め、最適な形で情報を整理してくれるのです。
これが「プロンプトエンジニアリング不要」と言われるもう1つの大きな理由です。

③ これからのAIとの付き合い方
AIが進化することで、私たちの役割も変わってきます。
「AIを上手く使う技術」から、「AIと一緒に考える力」へ
指示を細かく出すのではなく、AIに任せる領域を増やす
AIとの対話を通じて、より良いアウトプットを一緒に作る
これからは、「どう伝えるか」ではなく、「どうAIと対話するか」が重要になっていくのかもしれません。

まとめ
最新のAIモデルは推論能力が向上し、IQ120相当の思考力を持つと言われている。
細かすぎるプロンプトは、むしろAIの提案力を抑え込むリスクがある。
AIは曖昧な指示でも自ら質問を返してくれるため、プロンプト作成の手間が減る。
これからは「AIと一緒に考える力」が求められる時代に。

⬇️シリーズ④へ続きます