ChatGPTが文章を書いても、人間のミッションは残るよなあ、という話
ChatGPTネタです。一回別なのを書いたが、あまりにも垂れ流しが過ぎたので没にした。よって、今回は軽めに行ってみる。
noteを見てると、ChatGPT祭りという状態になっておりますが、そういった記事を散策しながら思ったのは、
「ChatGPTが文章を書いても、人間の仕事は残るよなあ」
ということだ。
別にこれはChatGPTの生成する文章の正確性だの何だのという話がメインではない。もちろん、それも絡んではくるが、ちょっとレイヤーが違う。
残る仕事は二つ。厳密には、一つとその派生という形になる。
『ひとぉつ』
まず一つ目の人間の仕事は、「編集」としての仕事ではないかと。
noteをChatGPTで検索して大量に出てくる記事の中には、それこそChatGPTで生成した文章をそのまま使ったと思しき記事も大量に見つかる。
さて、そういった記事のうち、記事として成立しているのはどのくらいあるだろうか?
生成された文章をそのまま記事にするとどうなるか?の大規模な社会実験をやってるのか、という感想すら抱いてしまう。
同様の感想を抱かれた方もおられるのではないだろうか。
二つ目の話とも少し関わってくるのだが、いくらサンプル展示とは言え、自分の文章をそんな風に扱いますか?と言いたくなるような、ChatGPTの出力をそのまま貼りっ放しジャーマンした記事が目立つ。改行も段組みも無しの、プレーンテキストをそのまま貼り付けたやつだ。
確かに、ChatGPTをカスタムして出力様式を整えれば、見出しや段落分けぐらいの加工付きで文章を生成してくれるかも知れない。が、おそらくそこ止まりだろう。
例えば、特に強調したいポイントを「」で括ったり太字にしてみたり、というところまでは難しかろう。あるいは、より印象に残るように、細かく語句の順序を変える必要があるかも知れない。
つまり、本人の意図通りにするためには相応の加工が必要、ということになるだろう。(そのレベルまでカスタムしようとすると、自分の文章作りのメソッドを全て言語化してプログラミングするということで、そんな知見や技術があるなら、別のことでメシが食えてしまうだろう)
もちろん、ChatGPTの出力はあくまで下書き、と捉える向きもあろうが、ちょっと考えてほしい。
その下書きを読み込み、自分の意図(あるいは対象読者)に合わせて手直しし、記事としての体裁を整える。これってほとんど「編集」の仕事というやつじゃないか?
映像においても、編集次第で完成品のクオリティが左右されると言われるが、文章もそういうセンスが主体となっていく可能性がある、ということだ。
ただ、これって別に完全新規の異なる能力を要求されているわけではなく、そうなったとしても、文章に触れてきた分量がアドバンテージとなることは間違いない。
繰り返しになるが、生成されたままをベタ貼りするとどうなるかは、今まさにそのサンプルが日々公開されている最中であるから、その重要性は理解できるだろう。
まあこの話も、そこでのオーダーが「何でもいいから、それっぽい文章でスペースを埋めてくれれば良い」というのなら別。「その程度を望んでいる層」にとっては、ChatGPTは渡りに船なのだろうが、そもそもそういうケースでは文章の出来など二の次だろうから、自動生成云々以前の問題という気がする。
『ふたぁつ』
さて二つ目だが、これは非常に重要な仕事である。
これはChatGPTでは絶対不可能な、まさに人間にしか出来ないことで、何かと言えば「文責」としての役割だ。
ツールが生成した文章だから、僕に責任はありません、みてえなのが通用すると思ってる人はさすがにおるまい。
さすがに、その文章の責任を負うのは、人間にしか出来ない仕事だろう。これを手放すというのは、本当にそれは「AIに仕事どころか存在意義を明け渡す」ことになる。
大事なことなので強調するが、「奪われる」のではない。「明け渡す」ことになるのだ。責任放棄ってそういうことだ。
最初に挙げた正確性の話もここに絡んできて、ChatGPTで生成した文章を本文として使う以上は、公開する前にその内容の真偽を確かめねばならない。ということで、何だ、やっぱりこれも「編集」の仕事じゃないか。
つまり、この先ほとんどの人がChatGPTのような何かで文章を作成するという未来がやってきたとしても、言ってみれば全員がChatGPTという下請けライターを抱えた編集になると考えれば、結局はそこに差が生まれるんじゃなかろうか。
『みぃっつ』
そもそも、人間社会の技術や知識の発展というのは、暗黙知と形式知の螺旋によって織り成されている。
暗黙知というものを平易に表せば「何か知らんけど、あいつだけ上手くやるよなあ」だ。
同じく、形式知を平易に表せば「上手くやるコツを教えてもらったから、みんなで真似しようぜ」だ。(「みんなで真似しようぜ」がポイント)
何らかの暗黙知が形式知となり、皆が使えるようになればメデタシメデタシで終わるものではなく、同じ形式知を使っているはずのところにまた暗黙知、すなわち「同じコツを使ってるはずなのに、あいつだけ上手くやるよなあ」が生じる。そうしてまた、そのノウハウが形式知となり、またそこに暗黙知が生まれ……という具合にして、技術や知識が発展してきた歴史がある。
そのように考えると、ChatGPTで文章の自動生成が出来るようになったとて、それほど悲観することは無いと思うのですよ。
もちろん、これまでの常識がいくらか破壊されるかも知れない。
が、ここで終点などではなく、そこから次の暗黙知が必ず生まれるに違いないからだ。それはこれまでの歴史が証明してるし、その積み重ねの上に我々の今がある。
そこに暗黙知がある限り、人間のノウハウを必要とした仕事が存在するということになる。
「次の暗黙知を俺が作ってやるぜ」の気概がそこにある限り、人間のミッションは必ず残るんですよ。
なに、ここが終点かも知れないって?
それも心配はいらない。終点になるのは、人間が責任を放棄した時だけだ。
そこは大丈夫だよな?