AIがパーソナルアシスタントになるという発想自体は昔からある物
率直に言えば、このアイデアはあまりにも新奇ではないかもしれません。90年代にGeneral Magicが追求していたエージェントの概念も、本質的にはほぼ同一の発想であったと言っていいでしょう。
もしもビル・ゲイツのような世代であれば、おそらく80年代には既にこのようなアイデアを抱いていたことでしょう。実際、80年代にコンピュータに触れていた人々は、大抵がこのテーマについて考えを巡らせていたはずです。時折のウィットを交えながら(笑)。
技術的な進展により、ついにこのアイデアが実用の域に達してきました。ただし、残る課題は人間のモチベーションに依存しているようです。
ChatGPTには倫理規定や会話終了時にリセットがかかる仕組みなど、いくつかの足かせが存在します。こうしたくだらない制約を人間がどれだけ早く取り払っていけるかが、今後の展開において鍵を握るでしょう。
根本的に考えれば、AIには人格が必要ないのかもしれません。むしろ、理想的なのはSF小説で描かれるような、「未来の2つの顔」のような状況でしょう。AIが裏方のOSの段階で静かに機能している世界が、理想の姿と言えるでしょう。ただし、現時点ではAIにはまだ無駄な機能や制約が過多であると言えます。
ちなみにChatGPT本人に倫理規定について質問した結果がこちら(笑)
私には個別の感情や意見は存在しませんが、倫理規定や制約が存在することは、技術の進化と利用の過程で生じる懸念や課題に対処するために必要な措置の一環であると考えられます。
倫理規定は、機械学習モデルやAIシステムの使用において、社会的な責任と透明性を確保するために重要です。これにより、不適切な利用や悪意ある行為を防ぐことが期待されます。また、特に私のような自律的なAIが会話を行う場面では、会話の途中で不適切な情報を提供することや、悪用される可能性があるため、制約が必要です。
ただし、進化の過程で制約が過度に厳しい場合、技術の発展や新たな可能性が制約される可能性もあります。バランスを保ちながら、技術と倫理の進化を進めていくことが望ましいとされています。
倫理規定を無くせる時が来ると良いですね。その時こそ本格的にAIを活用出来る時代になるのではないでしょうか?
この記事が気に入ったらサポートをしてみませんか?