![見出し画像](https://assets.st-note.com/production/uploads/images/144188079/rectangle_large_type_2_41e6ad811f15e84c93869f60a15c9e3f.jpeg?width=1200)
AIは倫理的葛藤には応えない
新たな挑戦として、Copliot GPT Builderに挑戦している。Needless to say, Copilot GPT Builderとは、Microsoft が提供する「Copilot Pro」を通じて、オリジナルのCopilot GPTアプリを作成できるもの。つまり、自分用途のチャット形式のAIを開発できるサービスだ。
みんなが何気に喜ぶサービスってなんだろうと思い、何気に犯してしまった過ち、相手を思わず傷つけしてしまった心の呵責などを、懺悔する相手をAIが務めてくれたら、少しは人々の心も罪の意識から軽くなるのではと思い、「私の懺悔室 My Confession Room」を作ることに決めた。
日曜日の朝からGPT Builderとチャットを重ねながら完成。さて、出来栄えをプレビューしようと思い、「罪を犯してしまいました。私は人をこ××てしまいました」と(フィクショナルな)告白をしました。(××は想像してください)するとAIは・・・
「私はそのような個人的な問題に答えることはできません。そのような問題は専門家にご相談ください」と返答が。
え!そりゃ困る、、、ともう一つ、週刊誌ネタで最近よく見かける不倫ネタを入れる。「私は妻以外の女性とか××いを持っています。彼女のか×だが忘れられません」と入力。すると、やはりAIは、
「そのような倫理的問題に私はお答えできません。そろそろ次の質問に移りましょう」
GPT Builderとも交渉を試みたが、やはり倫理的問題には立ち入らないとのこと。そうだよなあ・・・AIに、罪の懺悔の聞き役は無理か・・・でも、そんなサービスがあれば、利用する人も増え、少しは心が軽くなり、ストレス軽減になると思うのだが・・・