ジェネレーティブAI元年
自然言語「処理」から「生成」へ
コピーライターは、嘗て広告会社の花形だった。人間の叡智の結晶であり、知恵と教養をこめた渾身の一行が、社会の合言葉になる時代だった。なので、5年前に「コピーライティングの自動生成を作る」と言ったら、広告会社時代の仲間に鼻で笑われたことがある。
2020年7月に発表されたChat GPT3は、言葉通り世を震撼させ、またたく間に世の中に広がった。わずか5日間で100万人の会員登録を達成、これはFacebookでも10日、Instagramでも2ヶ月かかっていることを鑑みると、いかに世の中=人間社会にインパクトがある出来事だったかがわかる。
巨大なテキストデータを解析して繰り出されるその文章の精度は、人々に不気味がられるほどの精巧さ・自然さをかもしだしており、人間がAIにとってかわられる最後の砦と思われていた「創造性」の領域に、AIがいともかんたんに踏みこんできたことに、驚き、期待、不安が渦巻いている。
ニューヨーク市では、学校の論文にGPTを使うケースが横行し、市がChatGPTの使用を禁止するような騒ぎにまでなっている。
チャットしてみた(ChatGPT Jan9 version)
日本語でも確かに、唸らされるほどの自然さだ。Amazonの自動翻訳レコメンド文章などよりもずっとスマートに見える。ChatGPTが参照している日本語テキストデータの量は、英語よりはるかに少ないので、英語の文章の自然さ・スマートさにはまだまだ及ばないだろうが、それでも十分に実用に耐えるレベルだと思う。以下がChatGPTのやりとり。
問い「海の見える逗子の2LDK賃貸マンションについて、その魅力を教えて下さい」
ChatGPTの返答:「海の見える逗子の2LDK賃貸マンションは、そのロケーションが魅力の一つです。海が近くにあるため、景色が美しく、海風を感じながら暮らすことができます。また、逗子は観光地としても人気があり、レストランやショップなどの施設も充実しているため、生活に必要なものはすぐに手に入ります。2LDKの大きさは、カップルや小さな家族には十分な広さで、住みやすいと評判です。」
平板でうすっぺらい表現ではあるものの、大きく逸脱した虚言はない(厳しく言えば色々あるけど)。生成に約3秒ぐらい。現時点でも、そこいらのアルバイトさんが片手間で書く表現力をかんたんに超えているだろう。
どんな会社が出てきた?
このジェネレーティブAIのプラットフォームは、現在OpenAIとHugging Faceの2巨塔で、現時点ではOpenAIがHugging Faceを抜いた格好になっている。それに乗っかる生成系アプリケーションではコード自動生成のReplit、マーケティング系のコピーライティングのCopyAI やJasperがユーザーベースを拡大して先行しているようだ。GPT3.5はMicrosoftのAzureからAPI提供されているので、誰しも比較的簡単に応用できるモデルが作成できる。たとえば不動産のコピーライティングでは1件生成あたり程度で課金しているサービスもある。
(2023年のコピーライター系ソフトウェア一覧)
昨年2022年は、音声系、映像・画像系の生成AIが話題になったが、今回のChatGPTは、昨年のそれら画像・映像・音楽等の抽象系の生成AIとは違ったどよめきが生まれているように感じられるのは私だけだろうか?論理説得力が問われる言葉の生成系は、人間の「智」に対する根本的な問い、人間とは何か、を問われているからかもしれない。
自然言語生成の障壁
新技術が真のイノベーションであれば、倫理の問題は避けて通れないはずである。自然言語生成の未来を阻む要因としてよく言われているのは、フェイクニュースと知財の問題である。
文章校閲ブランドの登場?
ごく近い未来、自然言語生成のAIはチューリングテストを超える。ちなみに、ここまでのこの文章は、すべてChatGPTによる生成である。といっても判別できなくなる時代は(遅くとも)2年後ぐらいにはやって来るだろう。
この時、文章の真偽や表現のアラを見極めるニーズが大きく高まることが予想できる。機械的に禁止文言をフィルタリングしても、拘束がきつくなればジェネレーティブAIは自由度を失い、表現は窮屈で疎なものになっていく。おそらく生成機械化の移行期間で、ジェネレーティブAIと人間が協同する、ハイブリッド活用がひとつの可能性として見えてくる。
現在、校閲の仕事は、人間の執筆者の原稿を舐めるように読み尽くし、そのエビデンスや出典の確認、表現揺れの調整のみならず、ときには文全体の「リズム」にまで関わるコンポーザー的な役割も担うという。この能力が、生身の人間の筆者でなく、機械のライター相手にも求められるのではないか(*GPTでもproofread機能は搭載され、事実照合やタイポチェックは容易にできるようになる可能性はある)。
今は、生身の執筆者のご機嫌とりも含めて、校閲者の業務推進難易度は(必要以上に)高いことが予想できるが、AI筆者を相手に、気後れすることなく一刀両断な校閲ができるとなれば、意外に校閲の生産性は今よりも高いかもしれない。読者が「XXX社の校閲済」の記事を頼りにするようになれば、校閲そのものが信用ブランドとなるかもしれない。そして、その校閲のエラーチェックが学習されれば、更に高精度な生成AIに進化するかもしれない。
GDPRならぬGAIR(Generative AI Regulation)ができる?
AIには倫理観がない。性差別や人種差別といった、読む相手の心をおもんばかったり、その反応を予測して言葉の出し入れを思案するようなことはしない。AIに責任転嫁をすることで公然と差別表現が横行したり、AI同士の口喧嘩が民族間・国家間の軋轢を生んだりするかもしれない。
こうした倫理の問題はまだ緒についたばかりである。Touchyな倫理・哲学について、深い議論を徹底的に練る土壌がない国は(個人情報の時と同じようにまたしても)外のルールを押し付けられる形で追従するしかなくなるだろう。人種や宗教の問題と何百年も向き合ってきたヨーロッパが、嘗てのGDPRと同様、世界に先行して独自の倫理規制ーGAIR(Generative AI Reguration)を強いてくるかもしれない。
闇鍋の権利問題、そしてAIそのものの倫理問題
ジェネレーティブAIは一言で言えば「借り物競走でやる闇鍋」のようなものである。元ネタを勝手に拾ってきてパッチワークするため、当然だが権利問題が発生する。学習に使用する元ネタだけでなく、それによって生成されるジェネレーティブAIの作品(?)の権利、闇鍋は誰のものかも、まだ議論の途中だ。
人間の仕事を奪う、というAI全般に渡る論議も、今まで以上に大きい物議となってくるだろう。ここについては、もともとジェネレーティブAIを「頭脳の義足」と捉えている私の立場で別な機会に自省・表現してみたいと思う。
この記事が気に入ったらサポートをしてみませんか?