これからの人の仕事は「責任」を持つこと?
最近ChatGPTをはじめとするAIを使ったサービスがたくさん出てきています。本当にその進化はめざましく、僕も常にChatGPTを開いて仕事をしているほど便利な代物です。
僕は今プログラマーとして働いていますが、もうAIに指示することでコードを書いてもらえる環境が整ってきています。
これによって仕事の生産性は何倍にも跳ね上がっていくでしょう。でも、逆にプログラマーでなくとも指示さえできればプログラミングができる世の中になっていくと思われます。
現状はまだ精度がない部分もあるので、一回の指示で正しいコードをAIが提示してくれるということはないでしょうし、指示の質でも当然変わってきます。
そういう意味では誰でもプログラミングができるというわけではないし、プログラミングの知識をすでに持っているプログラマーがよりプログラミング速度が格段に上がるという見方もできます。
けれど、AIへの指示の仕方のポイントを抑えれば、誰でもある程度プログラムを作成することはできるし、それこそ、出力された結果にエラーがあれば、それをAIにまた聞いて修正してもらうなど、再帰的にコーディングを進めていけば、エラーなく動くように持っていけるケースもあります。
プログラミング言語を細かく勉強しなくても、抽象的な範疇でプログラムを理解していればプログラムを作ってもらうことはやりやすくなるし、AIを利用すればその辺の知識も学習効率高く学べると思います。
そしてAIが作成したコードの精度も今後のAIの学習や進化によってどんどん質が高くなっていくと思います。
こう考えると、何か作りたいものがある時にプログラマーを頼らなくても、自分で作ろうと考える人も増えてくると思います。
ではいつかはプログラマーの仕事は無くなってしまうのでしょうか?
たしかにAIがエラーの発生確率が非常に少ないプログラムを作成してしまう時代はいつかはくると思います。
でもそれはあくまでエラーの確率が低いという話で、どこまで行っても可能性の話になります。もし、AIで作ったプログラムに万が一問題があったときにどうするでしょうか?
「AIが作ったので僕は知りません。」
こんな回答はできるはずもなく、AIは人格を持たないので責任を持てません。AIの提供元もこれだけ利用が広がって誰もが自由に使えるようになったものの責任を取るということにもならないんじゃないかと思います。
AIを使って問題を解決しますか?それもある程度できるかも知れませんが、同じようにできるかもしれないという確率の話です。
ここでプログラマーの出番です。AIがコーディングするにしても、その内容を把握し、万が一エラーが起こった場合でも、その時点のAI性能で問題を解決できない場合、全容を把握し、問題を解決できるという自信を持った人。つまり、責任を持てる人が必要になってきます。
そして、これは考えてみるとプログラマーに限った話ではなく、いろんな仕事に言えることだと思います。
AIが実業務を代替できるとしても、それを運用・管理し、責任を持てる人が必ず求められるのではないかと思います。
人格があるが故に責任を持ち得るのは人だけだと思うし、人格があることは主体的な「意識」があることだとも言え、主体的な「意識」が学びを創造に変えていくという意味でも人は替えの効かない存在です。
今後AIが人と同じレベルの意識を持ち得た場合に人格を持つかなどの議論もあると思いますが、それはまた別の機会に。
あくまで、今後こうなる!と言いたいわけではなく、自分の浅い知識でふわっと思うことをつらつら書いてきたので、軽ーく読み流してもらえたらです。