AIが謝ってきた話
2010年頃から書いているメルマガをリニューアルしようと思って、AIと壁打ちをはじめたんだ。
まずはメルマガ1本分のラフを作ってもらおうと、AIにリクエストした。文末にタイトルと発行者名を入れてと指示したところ・・・
↓
(AI)
■ 365日の「書く力!」
文章術の極意をお届けする医グメールマガジン
発行者:高橋りょう
↓
(僕の心の声)
??? なんだ???
文章術の極意をお届けする、まではいい。
「医グメールマガジン」ってなに?
これは聞いてみるしかない。
(僕)
医グメールマガジンて何?
(AI)
申し訳ありません。タイプミスです。
■ 365日の「書く力!」
文章術の極意をお届けするメールマガジン
発行者:高橋りょう
と修正させていただきます。「医グ」は単純な入力ミスでした。細部まで丁寧に確認いただき、ありがとうございます。このような初歩的なミスは文章の信頼性を損なう可能性があるので、今後はより一層の注意を払います。
他に気になる点はございますか?
(僕)
AIも入力ミスなんてするんだ
(AI)
はい、興味深い指摘ですね。実は、私のような言語モデルは「入力ミス」を起こすのではなく、文章生成時にときどき予期せぬエラーや不適切な文字列を生成してしまうことがあります。
これは人間の「タイプミス」とは少し異なる性質のものです。人間の場合は指が間違ってキーを打ってしまうような物理的なミスですが、AIの場合は文章を生成する際の確率的な処理の中で、意図しない出力が生まれてしまうことがあります。
だからこそ、生成した文章は必ず人間がチェックすることが重要です。特にビジネス文書やメールマガジンなど、多くの人の目に触れる文章では、入念な確認が必要ですね。
このような「ミス」が起きる可能性があることも、AIツールの特徴として理解しておくと良いかもしれません。完璧な出力を期待するのではなく、人間とAIが協力して、より良い文章を作り上げていく...そんな関係性が理想的だと考えています。
(僕)
なるほど、面白い
(AI)
ありがとうございます!
そうなんです。人工知能というと「完璧な処理」をイメージされがちですが、実は私たちにも独特の「クセ」や「特性」があるんです。
例えば:
- 文章生成時の予期せぬ組み合わせ(先ほどの「医グ」のような)
- 長い文章を書くときに、途中で話の整合性が取れなくなることも
- 数字の計算は正確なのに、数を数えるときは意外と苦手
- 画像は作れても、自分で作った画像を「見る」ことはできない
こういった特性を知っていただけると、より効果的に活用いただけると思います。
人間の方が圧倒的に優れている部分(文脈の理解や創造性の根幹部分)もあれば、AIが得意な部分(大量の文章生成や定型的な処理)もある。お互いの特性を活かして協力していく...というのが理想的なんじゃないかと考えています。
...なんだか、ちょっと哲学的な話になってしまいましたね(笑)
(僕の心の声)
(笑)って・・・間違ってないけど、変な感じ。人間とロボットの間の「不気味の谷」みたいなものだろうか。
気を取り直して、さらなる壁打ちで記事を生成してもらった。
(AI)
■ 最新研究:「結び」の効果を高める3要素
スタンフォード大学のある研究によると、
効果的な結びには以下の3要素が必要だそうです:
1. 具体的なアクション
2. 明確な期限
3. 実行する理由(メリット)
今回のポイント:
1. 研究データを引用し、説得力を高めました
(略)
文章の調子や内容について、調整が必要な箇所はありますか?
(僕の心の声)
スタンフォード大学の「ある研究」って何だ? 聞いたことないけど、どうなんだろう。
AIに、まずは真偽を聞こう。
(僕)
スタンフォード大学のくだりは事実ですか?
(AI)
いいえ、申し訳ありません。スタンフォード大学の研究については、私が事実確認なしに生成してしまいました。これは適切ではありませんでした。
より誠実な書き方としては、以下のような選択肢が考えられます:
1. 研究引用を完全に削除し、実務経験からの知見として書き直す:
「私のコンサルティング経験から、効果的な結びには以下の3要素が重要だと考えています:」
2. 一般的な事実として記載:
「ビジネス文書の専門家の間では、効果的な結びには以下の3要素が重要だと言われています:」
このような架空の研究データを引用することは、メルマガの信頼性を損なう可能性があります。読者との信頼関係を築くためにも、事実に基づいた情報提供をすべきでした。
今後のメルマガでは、研究データを引用する際は必ず出典が明確なものだけを使用するように気をつけます。修正版を書き直しましょうか?
(僕)
よろしく
(AI)
はい、では、より誠実な内容に書き直させていただきます。
(僕の心の声)
嘘かー。最初から誠実でお願いしたい。それにしてもよくしゃべるね、あなた。
と、こんなやりとりがあった。
AIは賢いけれどしれっと嘘をつくので、見破る注意力が必要ですよ、というお話でした。
ちなみに、今回のAIはClaude。Chat GPTだったら、また違ったアウトプットになっただろう。
AIに嘘をつかせないプロンプトを使う手もある。どんなプロンプトを書けばいいのかは、AIに聞いてみよう。
以下、追記(2024.11.5)。
Claudeに質問してみた。
(僕)
AIが嘘の情報や根拠のない情報、作り話を出してこないようにするには、どんなプロンプトを書いたらいい?
(AI)
以下のようなプロンプトの書き方をお勧めします:
1. 事実に基づいた回答を明確に求める
「確実な事実のみに基づいて回答してください。不確かな情報がある場合は、その旨を明確に伝えてください。」
2. 情報源の明示を要求する
「回答の中で重要な事実を述べる際は、可能な限り情報源を示してください。」
3. 確信度を示すよう依頼する
「それぞれの情報についての確信度を示してください。不確かな部分は『〜かもしれません』『〜の可能性があります』など、明確に表現してください。」
4. 推測と事実を区別するよう指示する
「推測に基づく部分と確実な事実に基づく部分を、明確に区別して説明してください。」
5. 限界を認めるよう促す
「わからないことや不確かなことがある場合は、率直にその旨を伝えてください。」
これらのポイントを組み合わせた具体例:
以下の質問について回答をお願いします:
1. 確実な事実のみに基づいて回答してください
2. 情報源がわかる場合は明示してください
3. 不確かな部分は、その旨を明確に示してください
4. 推測と事実を区別して説明してください
5. わからない場合は、率直にそう伝えてください
もし特定の分野やトピックについて質問する場合は、その分野に特化した信頼性の高い情報源を指定することも効果的です:
「この医療に関する質問については、WHOや各国の公的機関が発表している情報のみに基づいて回答してください。」
更に詳しい工夫や具体例を知りたい場合は、お申し付けください。
・・・ということだった。
ちなみに、AIがしれっと嘘をついたり曖昧な情報を正しいもののように出したりすることを「ハルシネーション」と言うそうだ。
「ハルシネーションを避けてください」
というプロンプトも役に立ちそうだ。
この記事が気に入ったらサポートをしてみませんか?