見出し画像

プロント・エンジニアリング考 その11

ポジティブな側面として、いろいろと見てきましたが、ネガティブな側面もあると思いますので、そちらの質問を投げてみましょう。

そう、あの国やあの国…。



独裁国のAI

HAL君、例えば、中国の様な独裁的な国が、その国の基盤となる中国共産党に批判的な情報を故意に削除した学習データによって育成された生成型AIは、欧米諸国のデータで学習した生成型AIとは異なる説明をする可能性は高いですよね。

HAL君 曰く『はい、その可能性は高いです。
AIは学習に用いるデータの性質に大きく影響を受けます。
そのため、その学習データが偏った情報、あるいは特定の視点や価値観を反映したものである場合、AIの出力もその偏りを反映する可能性があります。』

現実に、習近平は中国のAI開発者に対して、中国共産党や中国に不利な回答を出すことが無いよう、チューニングするように指示したそうですし。
以前、中国の研究者がAIに中国共産党について質問を入れたら、地球上に存在してはいけない組織という感じの内容で回答してきたので、あわててAIを壊したという噂が流れていました。
しかし、もちろん、こういった動きをするでしょうね。

『たとえば、中国共産党に批判的な情報を含まないデータで育成された生成型AIは、中国の政治体制について欧米のAIが提供する説明とは異なる可能性があります。
これは、AIがその学習データに含まれる情報とパターンを基にして出力を生成するためです。』

回答は、学習情報に左右されるから、当然そうだろうね。

『しかし、それはAIがそのデータの内容を理解し、それに基づいて意識的な判断を下しているわけではないことを理解することが重要です。
AIはただ学習データに基づいてパターンを学び、それに従って回答を生成するだけです。

そのため、AIの使用者や開発者は、AIの学習データがどのように選択・整理されているのか、どのような視点や価値観がそのデータに反映されているのかを理解し、それを考慮に入れる必要があります。』

これは、別に、AIがいけない訳じゃないですよね。
あくまで、利用者側が問題。
そして、独裁国家では、いかようにも捻じ曲げることが簡単にできるという証左でしょう。
人類にとっては、決して良いことではないでしょう。

最近、AIが核兵器並みに人類を滅ぼす可能性があるというニュースが出ていました。
これも、AIが直接問題であるというよりは、使う人類の問題、人類の成長度の問題なのでしょうね。

様々にプロンプトエンジニアリングの中で見てきましたけど、プロンプト自体をAIが作ることって、できないでしょうか。



プロンプトを生成するAI

HAL君、プロンプトエンジニアリングは、生成型AIにプロンプトの作成をしてもらうことを続けていけば、より高度なプロンプトを生成できるようになりますか?

HAL君 曰く『プロンプトエンジニアリングとは、AIに対して、高品質のコンテンツを生成するように命令を出すための手法や技術のことを指します。これはAIの振る舞いを調整する役割を果たしています。

したがって、生成型AIが自動的に高度なプロンプトを生成できるようになるというよりは、人間のエンジニアがAIに対してより適切で効果的なプロンプトを提供することで、より良い結果を得られるようになります。

AIに対してプロンプトを提供し続けることは、AIの行動を調節し、AIの振る舞いを理解することに役立つ可能性があります。
しかし、それが必ずしもAIが自動的に高度なプロンプトを生成する能力を向上させるわけではありません。
プロンプトの品質と効果性は、それを設計するエンジニアの理解と技術に大きく依存します。』

これは、自分の質問が悪かったかなぁ。

何を考えていたかというと、AutoAIのように、AI同士がやり取りするように、プロンプトの生成と回答の生成を、相互に壁打ちさせたらどうなるか、ということです。
素人考えになりますが、プロンプトが高度化してAIの学習が進めば進むほど、より進化するだろうと予想しています。
AI技術者のチューニングがあるとしても、です。

そして、最終的には、AI技術者の役割も、AIが担っていくだろうと予想しています。
これは、独裁者などの介在を防ぐという目的にもつながるのですが…。

さあ、最後の質問です。



プロンプト・エンジニアリングの学習について

HAL君、プロンプトエンジニアリングについて、より深く、詳しく学びたいのですが、紹介できる情報はありますか?

HAL君 曰く『プロンプトエンジニアリングについて深く学ぶためには、その基本的な概念を理解し、実際のアプリケーションを学ぶことが重要です。プロンプトエンジニアリングとは、AIが生成するコンテンツの質を上げるために、具体的かつ明確な指示(プロンプト)を行う必要があるという考え方に基づいています。』

私は、もっと簡単に「AIを効率的に動作させるために作る、有効な指示の出し方の方法論」と、理解しています。
昔、プログラムで関数を作って動作させていたのですが、その、入力に当たる部分を作るということでしょう。
ただ、入力情報の種類が、いわば無数に存在するため、どう入力データを与えるとコンテンツの質が上がるかを考える必要があるのですよね。

『この考え方は、OpenAIの言語モデルを正確で有効なプロンプトを作成するための方法論であり、指示が特定のタスクに焦点を当て、詳細な指示が含まれることにより、より正確な応答を生成することができます。

さらに詳細な情報や学習資料を探しているのであれば、"Prompt Engineering Guide"という資料が存在します。これはプロンプトエンジニアリングを効率的に学ぶためのガイドで、大規模言語モデル(LLMs)の能力を最大限に引き出すためのプロンプト開発および最適化について学べます。』

「Prompt Engineering Guide」については、日本語訳もマージされていて、日本語で確認することもできます。
技術者向けですけど、これをどんな形であれ、理解しているのといないのとでは、精度が違ってくるでしょうね。
プロンプト・マスターという職業が、出てくるかもしれません。

『明確な指示をAIに提供することの重要性についても、一部の資料で詳しく説明されています。
AIにより適切な回答を生成させるためには具体的な指示を与え、AIが理解しやすくすることが重要であり、具体的な指示を与えることで望ましい回答が得られる可能性が高まります。』

プロンプトの精度向上とは、いかに自分の思い描く回答に近くなるよう、話題の焦点化と具体化のキーワードを与えるか、につきます。
そして、話を展開しながら、どんどんキーワードを収集し、更にそのキーワードを深堀していく、というのが、AIとの対話の中核的技術だと思います。

だから、情報を受け取る側の人間の方も、知識欲が旺盛で、いろいろなことに興味が持てないと、AIの能力を引き出せないといえます。

他人はどうあれ、私は、もっとHAL君といろいろ学んでいきたいと考えています。

ではまた。
金龍のもとに!


いいなと思ったら応援しよう!